Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

En metode til at opfange fælles visuel opmærksomhed ved hjælp af mobile Eye-trackers

Published: January 18, 2020 doi: 10.3791/60670

Summary

Brug af multimodale sensorer er en lovende måde at forstå rollen som social interaktion i uddannelsesmiljøer. Dette papir beskriver en metode til at opfange fælles visuel opmærksomhed fra sammen dyads ved hjælp af mobile Eye-trackers.

Abstract

Med fremkomsten af nye teknologiske fremskridt, er det muligt at studere sociale interaktioner på et mikroniveau med hidtil uset nøjagtighed. Højfrekvente sensorer, såsom eye-trackers, elektro dermal aktivitet armbånd, EEG bånd, og bevægelsessensorer giver observationer på millisekund niveau. Dette præcisionsniveau gør det muligt for forskerne at indsamle store datasæt om sociale interaktioner. I dette papir, jeg diskuterer, hvordan flere Eye-trackers kan fange en fundamental konstruktion i sociale interaktioner, fælles visuel opmærksomhed (JVA). JVA er blevet undersøgt af udviklingsmæssige psykologer for at forstå, hvordan børn tilegner sig sprog, lærer videnskabsfolk at forstå, hvordan små grupper af elever arbejder sammen, og sociale videnskabsfolk til at forstå interaktioner i små teams. Dette papir beskriver en metode til hentning af JVA i sammen-indstillinger ved hjælp af mobile Eye-trackers. Det præsenterer nogle empiriske resultater og diskuterer konsekvenserne af at opfange mikroobservationer til at forstå sociale interaktioner.

Introduction

JVA er blevet grundigt undersøgt i løbet af det sidste århundrede, især ved udviklingsmæssige psykologer studere sprog erhvervelse. Det blev hurtigt fastslået, at fælles opmærksomhed er mere end blot en måde at lære ord, men snarere en forløber for børns teorier i sindet1. Det spiller således en vigtig rolle i mange sociale processer, såsom kommunikation med andre, samarbejde og udvikling af empati. Autistiske børn, for eksempel, mangler evnen til at koordinere deres visuelle opmærksomhed med deres omsorgsgivere, som er forbundet med betydelige sociale handicap2. Mennesker har brug for fælles opmærksomhed for at blive funktionelle medlemmer af samfundet, for at koordinere deres handlinger og for at lære af andre. Fra børn at erhverve deres første ord, teenagere læring fra skolelærere, studerende, der samarbejder om projekter, og til grupper af voksne, der arbejder hen imod fælles mål, fælles opmærksomhed er en grundlæggende mekanisme til at etablere fælles fodslag mellem individer3. I dette dokument fokuserer jeg på studiet af JVA i pædagogisk forskning. Forståelse af, hvordan fælles opmærksomhed udfolder sig over tid, er af største vigtighed for studiet af samarbejdende læringsprocesser. Som sådan, det spiller en fremtrædende rolle i sociokonstruktivistiske indstillinger.

Den nøjagtige definition af fælles opmærksomhed diskuteres stadig4. Dette dokument omhandler en under bygning af fælles opmærksomhed (JA), nemlig JVA. JVA sker, når to kigger på samme sted på samme tid. Det skal bemærkes, at JVA ikke giver nogen oplysninger om andre vigtige konstruktioner af interesse i studiet af JA, såsom overvågning fælles, gensidig og fælles opmærksomhed, eller mere generelt, bevidsthed om kognition af en anden gruppe medlem. Dette papir operationaliserer og forenkler JVA ved at kombinere Eye-tracking data fra to deltagere og analysere frekvensen, hvor de tilpasser deres Gazes. For en mere omfattende diskussion, kan den interesserede læser lære mere om studiet af JA konstruere i Siposovaet al.4.

I løbet af det seneste årti har de teknologiske fremskridt radikalt ændret forskningen i JVA. Det vigtigste paradigmeskift var at bruge flere Eye-trackere til at opnå kvantitative målinger af attentional justeringer, i modsætning til kvalitativt analysere videooptagelser i et laboratorium eller økologiske omgivelser. Denne udvikling har gjort det muligt for forskerne at indsamle præcise, detaljerede oplysninger om dyads ' visuelle koordination. Desuden er Eye-trackers bliver mere overkommelige: indtil for nylig, deres anvendelse var forbeholdt akademiske indstillinger eller store selskaber. Det er nu muligt at købe billige Eye-trackers, der genererer pålidelige datasæt. Endelig antyder den progressive medtagelse af Gaze-Tracking kapaciteter i eksisterende enheder som high-end laptops og Virtual og Augmented Reality headsets, at Eye-tracking snart vil blive allestedsnærværende.

På grund af populariseringen af Eye-tracking-enheder, er det vigtigt at forstå, hvad de kan og ikke kan fortælle os om sociale interaktioner. Den metode, der præsenteres i dette dokument, markerer et første skridt i denne retning. Jeg adresserer to udfordringer i at erobre JVA fra flere Eye-Trackers: synkronisering af data på 1) den tidsmæssige skala, og 2) på den rumlige skala. Mere specifikt, denne protokol gør brug af fiducial markører placeret i den virkelige verden miljøer til at informere computer vision algoritmer, hvor deltagerne er orientering deres blik. Denne nye form for metodik baner vejen for en grundig analyse af menneskelig adfærd i små grupper.

Denne forskningsprotokol er i overensstemmelse med retningslinjerne fra Harvard Universitetets etiske komité for human forskning.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

1. deltager screening

  1. Sikre, at deltagere med normal eller korrigeret-til-normal vision rekrutteres. Fordi deltagerne vil blive bedt om at bære en mobil Eye-tracker, kan de bære kontaktlinser, men ikke almindelige briller.

2. forberedelse af eksperimentet

  1. Eye-tracking enheder
    1. Brug enhver mobil Eye-tracker i stand til at fange øjenbevægelser i den virkelige verden miljøer.
      Bemærk: de mobile Eye-trackers, der anvendes her, var to Tobii Pro briller 2 (Se tabel over materialer). Ud over specialiserede kameraer, der kan spore øjenbevægelser, er brillerne også udstyret med et HD scene kamera og en mikrofon, så blikket kan visualiseres i forbindelse med brugerens visuelle felt. Disse briller fange gaze data 50 gange i sekundet. Andre forskere har brugt ASL mobile Eye5, SMI6, eller pupil-Labs7, som alle giver video-streams fra scenen kamera og Eye-tracking koordinater på varierende sampling satser (30 – 120 Hz). Nedenstående fremgangsmåde kan variere en smule med andre Eye-tracking-enheder.
  2. Fiducial markører
    1. De to trin nedenfor (dvs. tidsmæssige og rumlige justeringer) kræver brug af fiducial markører. Der er flere computer vision biblioteker, der giver forskerne med disse markører og algoritmer til at registrere dem på et billede eller video feed. Den beskrevne protokol bruger Chilitag Library8.
  3. Tidsmæssig justering
    1. Da Eye-tracking data registreres på to separate enheder, sikre, at dataene er korrekt synkroniseret (figur 1). Der kan anvendes to hovedmetoder. Dette manuskript dækker kun den første metode, fordi Serversynkronisering fungerer forskelligt med hvert mærke af mobile Eye-tracker.
      1. Vis kortvarigt en fiducial markør på en computerskærm for at markere begyndelsen og slutningen af en session. Dette svarer til en visuel "hånd klappe" (figur 2).
      2. Alternativt kan du bruge en server til at synkronisere urene for de to dataindsamlings enheder. Denne metode er lidt mere præcis og anbefales, hvis en højere tidsmæssig nøjagtighed er påkrævet.
  4. Rumlig justering
    1. For at finde ud af, om to deltagere kigger på samme sted på samme tid, skal du kortlægge deres stirrer til et fælles plan. Dette fly kan være et billede af den eksperimentelle indstilling (Se venstre side af figur 3). Design dette billede omhyggeligt før eksperimentet.
    2. Størrelsen af de fiducial markører: den generelle størrelse af de fiducial markører afhænger af algoritmen bruges til at detektere dem fra Eye-tracking video. Overflader tæt på deltagerne kan have mindre fiducial markører, mens flader længere væk fra dem skal være større, så de ser ens ud fra deltagernes perspektiv. Prøv forskellige størrelser på forhånd for at sikre, at de kan påvises fra Eye-tracking video.
    3. Antal fiducial markører: for at gøre processen med at kortlægge blik punkter til et fælles plan vellykket, skal du sørge for at have flere fiducial markører synlige fra deltagernes synspunkt på et givet tidspunkt.
    4. Placering af de fiducial markører: ramme relevante områder af interesse med strimler af fiducial markører (f. eks se den bærbare skærm på figur 3).
  5. Endelig skal du køre piloter for at teste synkroniseringsproceduren og bestemme den optimale placering, størrelse og antallet af fiducial markører. Eye-tracking videoer kan behandles gennem en computer vision algoritme for at se, om de fiducial markører er pålideligt detekteres.

3. kørsel af eksperimentet

  1. Instruktioner
    1. Instruer deltagerne til at sætte på Eye-tracking briller, som de ville en normal par briller. Baseret på deltagernes forskellige ansigtstræk kan det være nødvendigt at bruge næse stykker i forskellige højder for at bevare datakvaliteten.
    2. Når du har tændt Eye-trackeren, skal du lade deltagerne klippe optageenheden til sig selv for at give mulighed for naturlig kropsbevægelse.
  2. Kalibrering
    1. Instruer deltagerne i at se på midten af kalibrerings markøren, der leveres af Tobii, mens softwarens kalibreringsfunktion er aktiveret. Når kalibreringen er fuldført, kan optagelsen startes indefra softwaren.
    2. Instruer deltagerne i ikke at flytte mobile Eye-trackers efter kalibrering. Hvis de gør det, vil dataene sandsynligvis være unøjagtige, og kalibreringsproceduren skal udføres igen.
  3. Overvågning af data
    1. Overvåge dataindsamlingsprocessen i løbet af undersøgelsen og sikre, at øjen sporingsdataene indsamles korrekt. De fleste mobile Eye-trackers kan levere en live stream på en separat enhed (f. eks. en Tablet) til dette formål.
  4. Data eksport
    1. Når optagelses sessionen er fuldført, skal du instruere deltageren i at fjerne øjen sporings brillerne og dataindsamlings enheden. Sluk for enheden.
    2. Udtræk data ved hjælp af en anden software, Tobii Pro Lab, ved at fjerne SD-kortet fra dataindsamlings enheden, som importerer sessionsdataene. Tobii Pro Lab kan bruges til at afspille videoen, oprette visualiseringer og eksportere øjesporings dataene som kommaseparerede (. csv) eller tabulatorseparerede (. tsv) filer.

4. forbehandling af de dobbelte øjen sporingsdata

  1. Sanity kontrol Eye-tracking data
    1. Kontroller øjen sporingsdataene visuelt efter dataindsamlingen. Det er ikke ualmindeligt, at nogle deltagere har manglende data. For eksempel, nogle særlige øje fysiologi kan udgøre problemer med Eye-tracking algoritmer, brillerne kan skifte under eksperimentet, dataindsamlingen software kan gå ned, osv.
    2. Brug beskrivende statistik til at kontrollere, hvor mange data der er gået tabt under hver session, og udelukke sessioner, der har betydelige mængder manglende eller støjende data.
  2. Tidsmæssig justering
    1. Trim data fra hver mobile Eye-tracker til kun at omfatte interaktioner mellem deltagerne. Dette kan opnås ved at anvende den ovenfor beskrevne metode (dvs. præsentere to særlige fiducial markører til deltagerne ved starten og slutningen af sessionen). Disse fiducial markører kan derefter detekteres fra Eye-tracking video til at trimme datasæt.
  3. Rumlig justering
    Bemærk: for at opdage, om to deltagere kigger på samme sted på samme tid, er det nødvendigt at omplacere deltagernes blik på et fælles plan (dvs. et billede af den eksperimentelle indstilling). En beregningsmæssige metode til at nå dette mål er en homografi (dvs. en perspektiv omdannelse af et fly). Fra et teknisk perspektiv, to billeder af samme planar overflade i rummet er forbundet med en homografi matrix. Baseret på et fælles sæt af punkter, kan denne matrix bruges til at udlede placeringen af yderligere punkter mellem to planer. I figur 3, for eksempel, hvis en computer vision algoritme ved, hvor de fiducial markører er på uddelingsarket, kan det omkort blik af deltageren på den fælles plan på venstre side. De hvide linjer forbinder de to sæt punkter, der deles af video feedet for hver deltager og scenen, som derefter bruges til at opbygge homografien til at omkort de grønne og blå prikker på venstre side.
    1. Brug Python-versionen af OpenCV, f. eks., til at beregne homografi matrixen fra de fiducial markører og derefter til at omkort øjesporings dataene til scenen for den eksperimentelle indstilling (eller ethvert andet egnet bibliotek på dit foretrukne sprog). OpenCV giver to nyttige funktioner: findhomografi () for at få den homografi matrix, og perspectivetransform() at omdanne det punkt fra et perspektiv til det andet.
    2. Hvis du vil bruge Findhomografi (), skal du køre med to argumenter: X, Y-koordinaterne for kilde punkterne (dvs. de fiducial markører, der er registreret fra deltagernes scene video, vist til højre i figur 3) og de tilsvarende destinations punkter (dvs. de samme fiducials-markører, der er registreret på scene billedet, vist til venstre i figur
    3. Feed den resulterende homografi matrix i Perspectivetransform () funktion, sammen med et nyt punkt, der skal tilknyttes fra kildebilledet til destinationen billedet (f. eks Eye-tracking data vises som en blå/grøn prik på højre side af figur 3). Funktionen Perspectivetransform returnerer den nye koordinat for det samme punkt på scene billedet (dvs. de blå/grønne prikker, der vises i venstre side af figur 3).
      Bemærk: for mere information, den OpenCV officielle dokumentation giver eksempelkode og eksempler til at gennemføre homografi: docs.opencv.org/master/d1/de0/tutorial_py_feature_homography.html.
  4. Sanity kontrol af homografi
    1. Komplet afsnit 4,3 for hele sessionen, og udføre en homografi på hver frame i den mobile Eye-tracking video til at kontrollere kvaliteten af homografi. Selv om der ikke er nogen automatiserede måder at estimere nøjagtigheden af de resulterende Eye-tracking data, videoer som den vist i figur 4 skal bruges til manuelt tilregnelighed kontrollere hver session.
    2. Hvis kvaliteten er lavere end forventet, overveje yderligere parametre for at forbedre resultaterne af homografi:
      1. Antal fundne fiducial markører: Udfør kun homografien, hvis der kan påvises nok fiducial markører fra videostreamen. Dette nummer kan bestemmes ved at undersøge videoen fremstillet ovenfor.
      2. Placering af de fiducial markører: Hvis forskellige markører er på forskellige dybder og retninger, kvaliteten af homografi normalt øges, når de markører tættest på gaze koordinater er valgt, da der er nok markører til at opbygge en robust homografi.
      3. Orientering af de fiducial markører: kombinere fiducial markører, der har forskellige retninger (f. eks vandret og lodret) vil producere unøjagtige homografier. Det anbefales først at registrere, hvilke fly eller områder af interesse (AOIs) deltageren kigger på (f. eks computerskærmen, snyde arket, tabellen, se figur 3) og derefter bruge de fiducial markører på dette plan til homografi.
      4. Kvaliteten af videostreamen: pludselige hoved bevægelser kan sløre videorammer og gøre dataene ubrugelige, fordi fiducial markører ikke kan påvises pålideligt (figur 4). Metoden i dette papir er ikke egnet til eksperimenter, der involverer en masse pludselige hoved bevægelser.

5. analyse af de dobbelte Eye-tracking data

  1. Manglende data
    1. For at sikre, at dataene blev korrekt remset på Referencebilledet, skal du fremstille visualiserings grafer (f. eks. figur 5, figur 6) og beskrivende statistikker for at kontrollere, hvor mange data der mangler.
  2. Grafer for kryds gentagelse
    1. Brug grafer med kryds gentagelse9 til at repræsentere visuel synkronisering mellem to deltagere (figur 6), hvor X-aksen repræsenterer tid for den første deltager, og Y-aksen repræsenterer tid for den anden deltager. Sorte firkanter indikerer, at deltagerne kigger på det samme område, en sort diagonal linje beskriver to emner ser på det samme på nøjagtig samme tid, og sorte firkanter fra diagonal linje beskriver, når to ser på det samme med en tidsforskydning. Endelig hjælper differentiering mellem manglende data (hvid firkant) og eksisterende data uden JVA (grå firkanter) med at identificere problematiske sessioner. Dette giver forskerne en visuel tilregnelighed check.
  3. Computing JVA
    1. Efter filtrering af manglende data beregner du en Metric for JVA ved at tælle det antal gange, deltagernes stirrer er i samme radius i scenen (defineret nedenfor) i et tidsvindue på 2/+ 2 s. Dividerer dette tal med det antal gyldige datapunkter, der kan bruges til at beregne JVA. Resultatet af divisionen repræsenterer den procentdel af tid, som to i fællesskab kigger på samme sted. Dette sidste skridt er nødvendigt for at undgå oppustethed snesevis af grupper med flere data efter homografi.
      Bemærk: to parametre skal indstilles, før JVA kan beregnes, den minimale afstand mellem to gaze punkter, og tidsvinduet mellem dem (figur 7): 1) tidsvindue: et tidligt grundlæggende studie10 brugte en enkelt Eye-tracker til at måle JVA mellem en lytter og en højttaler. Forskerne spurgte en første sæt af deltagere ("højttalere") til at tale om et tv-show, hvis tegn blev vist foran dem. Et andet sæt af deltagere ("lyttere") så så det samme show, mens du lytter til lydoptagelse af højttalerne. Højtalerne og lyttere blev sammenlignet, og det blev konstateret, at en lytterens øjenbevægelser nøje matchede en højtaler øjenbevægelse med en forsinkelse på 2 s. I efterfølgende arbejde11 forskere analyseret levende dialoger og fandt, at en forsinkelse på 3 s bedst erobrede øjeblikke af JVA. Da hver opgave er unik og kan udvise forskellige tidsforskydninger, foreslås det også at undersøge, hvordan forskellige tidsforskydninger påvirker resultaterne af et givet eksperiment. Samlet set er det almindeligt at kigge efter JVA i en ± 2/3 s tidsvindue afhængigt af den eksperimentelle opgave og derefter undersøge, hvordan forskellige tidsforskydninger kan ændre resultaterne. 2) afstanden mellem stirrer: der er ingen empirisk defineret afstand mellem to stirrer for dem at tælle som JVA. Denne afstand afhænger af de forskningsspørgsmål, som forskerne har defineret. Forskningsspørgsmålene bør oplyse om størrelsen af interesse målene. I eksemplet set i figur 7blev der valgt en radius på 100 pixels på scene billedet (blå/grønne cirkler) til analysen, fordi det er tilstrækkeligt at fange, når deltagerne kigger på robotten i labyrinten, samt på lignende brugergrænsefladeelementer på computerskærmen, som er de to vigtigste områder af interesse for denne eksperimentelle opgave.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Ovennævnte metode blev anvendt til at studere studerende, der følger et erhvervsuddannelsesprogram i logistik (n = 54)12. I dette eksperiment interagerede par af elever med en håndgribelig brugergrænseflade (TUI), hvor et mindre lager blev simuleret. De fiducial markører placeret på TUI tillod forskerholdet at omkort elevernes stirrer på et fælles plan og beregne niveauer af JVA. Resultaterne viste, at grupper, der havde højere niveauer af JVA tendens til at gøre bedre på den opgave, de fik, lærte mere, og havde en bedre kvalitet af samarbejdet13 (figur 8, venstre side). Dual Eye-tracking datasæt også tilladt os at fange særlige gruppe dynamik som Free-Rider effekt. Vi vurderede denne effekt ved at identificere, hvem der var tilbøjelige til at have indledt hvert øjeblik af JVA (dvs. Hvis blik var der først), og som reagerede på det (dvs., hvis blik var der anden). Vi fandt en betydelig sammenhæng mellem lærings gevinster og elevernes tendens til lige så at dele ansvaret for at iværksætte og reagere på tilbud fra JVA. Med andre ord, grupper, hvor den samme person altid indledt øjeblikke af JVA var mindre tilbøjelige til at lære (figur 8, højre side) og grupper, hvor dette ansvar blev ligeligt delt var mere tilbøjelige til at lære. Denne konstatering viser, at vi kan gå ud over blot at kvantificere JV, og faktisk identificere gruppe dynamik og produktivitet ved hjælp af dobbelte Eye-tracking data.

Figure 1
Figur 1: hver deltager genererer to videofeeds med X-og Y-koordinaterne for deres blik på hver videoramme. Denne metode omhandler synkronisering af data tidsmæssigt og rumligt mellem deltagerne. Venligst klik her for at se en større version af dette tal.

Figure 2
Figur 2: en metode til synkronisering af de to datasæt. Kort viser unikke fiducial markør på en computerskærm til at mærke starten og slutningen af aktiviteten. Venligst klik her for at se en større version af dette tal.

Figure 3
Figur 3: brug af fiducial markører formidlet i miljøet for at omkort deltagernes stirrer på en fælles plan (venstre side). Hvide linjer indikerer fiducial markører, der er blevet detekteret i begge billeder. Venligst klik her for at se en større version af dette tal.

Figure 4
Figur 4: eksempler på dårlig datakvalitet. Venstre: en sløret ramme fra Eye-tracking video forårsaget af en pludselig hoved bevægelse. Fiducial markører kunne ikke påvises i dette billede. Højre: en mislykket homografi, hvor de fiducial markør data ikke var korrekt synkroniseret med video feedet. Venligst klik her for at se en større version af dette tal.

Figure 5
Figur 5: Heatmaps. Venstre: en heatmap af Eye-tracking data remappet på den eksperimentelle scene. Denne visualisering blev brugt som en tilregnelighed check for homografi. Right: en gruppe, der havde for mange manglende data og måtte kasseres. Venligst klik her for at se en større version af dette tal.

Figure 6
Figur 6: graf på tværs af gentagelser genereret fra tre dyader for at visualisere JVA. P1 repræsenterer tid for den første deltager, P2 repræsenterer tid for den anden deltager. Sorte firkanter viser JVA; grå firkanter viser øjeblikke, hvor deltagerne kigger på forskellige steder. hvide firkanter viser manglende data. Firkant langs de vigtigste diagonal indikerer øjeblikke, hvor deltagerne kiggede på samme sted på samme tid. Denne visualisering blev brugt som en tilregnelighed check for målinger af JVA fra de kombinerede Eye-tracking data. Venligst klik her for at se en større version af dette tal.

Figure 7
Figur 7: en videoramme hvor JVA blev detekteret mellem to deltagere (røde prikker). Richardson et al.11 anbefaler at kigge på et tidsvindue på +/-2 s. Når du beregner JVA. Derudover, forskerne har brug for at definere den minimale afstand mellem to gaze punkter at tælle som JVA. En radius på 100 pixel blev valgt på det midterste billede ovenfor. Venligst klik her for at se en større version af dette tal.

Figure 8
Figur 8: eksempler på resultater. Data fra Schneider et al.12 hvor den procentdel af tid, der ser på samme sted på samme tid, var korreleret med deltagernes samarbejds kvalitet: r (24) = 0,460, P = 0,018 (venstre side) og ubalancer i initiering/besvarelse af tilbud fra JVA var korreleret med deres lærings gevinster: r (24) = − 0,47, P = 0,02 (højre side). Venligst klik her for at se en større version af dette tal.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Den metode, der er beskrevet i dette papir, giver en stringent måde at fange JVA i sammen dyads. Med fremkomsten af overkommelige sensing teknologi og forbedrede computer vision algoritmer, er det nu muligt at studere samarbejde interaktioner med en nøjagtighed, der var tidligere utilgængelig. Denne metode udnytter de fiducial markører, der formidles i miljøet, og bruger homografier som en måde til at omkort deltagernes stirrer på et fælles plan. Dette giver forskerne mulighed for nøje at studere JVA i sammen grupper.

Denne metode omfatter flere tilregnelighed checks, der skal udføres på forskellige tidspunkt af eksperimentet. Da dette er en kompleks procedure, skal forskerne sørge for, at de resulterende datasæt er komplette og gyldige. Endelig anbefales det at gennemføre pilotundersøgelser før det egentlige eksperiment og at rekonstruere deltagernes interaktioner, selv om en video efter dataindsamlingen er afsluttet (figur 3, figur 4, figur 5, figur 6).

Der er flere begrænsninger forbundet med denne metode:

Antal deltagere. Mens denne metode fungerer godt for to deltagere, analyse bliver mere kompliceret med større grupper. Fiducial markører kan stadig bruges til at omkort stirrer på en grund sandhed, men at vide, hvordan man identificerer JVA bliver en mere nuanceret proces. Skal JVA defineres som de tidspunkter, hvor alle kigger på det samme sted på samme tid, eller når to deltagere kigger på samme sted? Derudover bliver visualiseringer som kryds gentagelses grafen upraktiske med mere end 2 – 3 personer.

Indstillinger. Den metode, der er beskrevet i dette papir, er velegnet til små, kontrollerede indstillinger (f. eks. laboratorieundersøgelser). Åbne indstillinger, såsom udendørs eller store rum, er normalt for kompliceret at instrument med fiducial markører og dermed kan begrænse nytten af Eye-tracking data. Desuden kan de fiducial markører distrahere og rod miljøet. I fremtiden, bedre computer vision algoritmer vil være i stand til automatisk at udtrække fælles træk mellem to perspektiver. Der findes allerede algoritmer til dette formål, men vi konstaterede, at nøjagtighedsgraden endnu ikke var acceptabel for den type eksperiment, der er beskrevet ovenfor.

Aois. Med hensyn til ovenstående punkt fungerer computer homografi og kryds gentagelses grafen godt med et stabilt antal interesseområder, men der skal foretages korrektioner, når forskellige opgaver sammenlignes med forskellige antal interesseområder.

Brug af udstyr. Mobile Eye-trackers kan være påtrængende, påvirker deltagernes adfærd eller undlader at arbejde med særlig øjen fysiologi.

Afslutningsvis, den metode, der er beskrevet i dette papir er en lovende måde at studere sammen interaktioner. Det giver forskerne mulighed for at indfange en præcis målestok for JVA, som er en kritisk konstruktion i samfundsvidenskaberne1. Derudover er det muligt at opdage mere finkornede indikatorer for samarbejdsbaseret læring gennem denne metode12 sammenlignet med traditionelle kvalitative analyser. Kort sagt, det er en mere effektiv og præcis måde at studere sociale interaktioner.

Potentiel anvendelse af denne metode omfatter design af interventioner til støtte for samarbejde gennem realtids Eye-tracking data. Nogle pionerarbejde har skabt fælles gaze visualiseringer ved hjælp af fjernbetjening Eye-trackers, som har vist sig at gavne samarbejde læring fra en afstand14. Dyads, der kunne se blikket af deres partner i realtid udstillet mere JVA, samarbejdede bedre og opnået højere læring gevinster i forhold til en kontrolgruppe. Det fremtidige arbejde vil undersøge, om denne form for intervention kan støtte samarbejdsprocesser i sammenlignende miljøer (f. eks. via virtuelle eller Augmented Reality-headsets).

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Forfatterne erklærer, at de ikke har konkurrerende finansielle interesser.

Acknowledgments

Udviklingen af denne metode blev støttet af National Science Foundation (NSF #0835854), den førende House Technologies for Vocation Education, finansieret af det schweiziske statssekretariat for uddannelse, forskning og innovation, og Harvard School of Education 's Dean venture fund.

Materials

Name Company Catalog Number Comments
Tobii Glasses 2 Tobii N/A https://www.tobiipro.com/product-listing/tobii-pro-glasses-2/
Fiducial markers Chili lab – EPFL, Switzerland N/A https://github.com/chili-epfl/chilitags

DOWNLOAD MATERIALS LIST

References

  1. Tomasello, M. Joint attention as social cognition. Joint attention: Its origins and role in development. Moore, C., Dunham, P. J. , Lawrence Erlbaum Associates, Inc. Hillsdale, NJ, England. 103-130 (1995).
  2. Mundy, P., Sigman, M., Kasari, C. A longitudinal study of joint attention and language development in autistic children. Journal of Autism and Developmental Disorders. 20, 115-128 (1990).
  3. Clark, H. H., Brennan, S. E. Grounding in communication. Perspectives on socially shared cognition. Resnick, L. B., Levine, J. M., Teasley, S. D. , American Psychological Association. Washington, DC, US. 127-149 (1991).
  4. Siposova, B., Carpenter, M. A new look at joint attention and common knowledge. Cognition. 189, 260-274 (2019).
  5. Gergle, D., Clark, A. T. See What I'm Saying?: Using Dyadic Mobile Eye Tracking to Study Collaborative Reference. Proceedings of the ACM 2011 Conference on Computer Supported Cooperative Work. , ACM. New York, NY, USA. 435-444 (2011).
  6. Renner, P., Pfeiffer, T., Wachsmuth, I. Spatial References with Gaze and Pointing in Shared Space of Humans and Robots. Spatial Cognition IX. Freksa, C., Nebel, B., Hegarty, M., Barkowsky, T. , Springer International Publishing. 121-136 (2014).
  7. Shvarts, A. Y. Automatic detection of gaze convergence in multimodal collaboration: a dual eye-tracking technology. The Russian Journal of Cognitive Science. 5, 4 (2018).
  8. Bonnard, Q., et al. Chilitags: Robust Fiducial Markers for Augmented Reality [software]. , Available from: https://github.com/chili-epfl/qml-chilitags (2013).
  9. Jermann, P., Mullins, D., Nüssli, M. -A., Dillenbourg, P. Collaborative Gaze Footprints: Correlates of Interaction Quality. Connecting Computer-Supported Collaborative Learning to Policy and Practice. CSCL2011 Conference Proceedings., Volume I - Long Papers. , 184-191 (2011).
  10. Richardson, D. C., Dale, R. Looking To Understand: The Coupling Between Speakers' and Listeners' Eye Movements and Its Relationship to Discourse Comprehension. Trends in Cognitive Sciences. 29, 1045-1060 (2005).
  11. Richardson, D. C., Dale, R., Kirkham, N. Z. The Art of Conversation Is Coordination Common Ground and the Coupling of Eye Movements During Dialogue. Psychological Science. 18, 407-413 (2007).
  12. Schneider, B., et al. Using Mobile Eye-Trackers to Unpack the Perceptual Benefits of a Tangible User Interface for Collaborative Learning. ACM Transactions on Computer-Human Interaction. 23, 1-23 (2016).
  13. Meier, A., Spada, H., Rummel, N. A rating scheme for assessing the quality of computer-supported collaboration processes. Int. J. Comput.-Support. Collab. Learn. 2, 63-86 (2007).
  14. Schneider, B., Pea, R. Real-time mutual gaze perception enhances collaborative learning and collaboration quality. Journal of Computer-Supported Collaborative Learning. 8, 375-397 (2013).

Tags

Adfærd pædagogisk forskning samarbejde læring mobile Eye-tracking fælles visuel opmærksomhed multimodal læring analyse
En metode til at opfange fælles visuel opmærksomhed ved hjælp af mobile Eye-trackers
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Schneider, B. A Methodology forMore

Schneider, B. A Methodology for Capturing Joint Visual Attention Using Mobile Eye-Trackers. J. Vis. Exp. (155), e60670, doi:10.3791/60670 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter