Met behulp van oogbewegingen die worden opgenomen in de visuele wereld paradigma te verkennen van de Online verwerking van gesproken taal

Behavior

Your institution must subscribe to JoVE's Behavior section to access this content.

Fill out the form below to receive a free trial or learn more about access:

 

Summary

De visuele wereld paradigma bewaakt deelnemers oogbewegingen in de visuele werkruimte als ze beluisteren of een gesproken taal te spreken. Dit paradigma kan worden gebruikt om te onderzoeken van de online verwerking van een breed scala aan psycholinguïstisch vragen, met inbegrip van semantisch complexe verklaringen, zoals de verklaringen van de disjunctieve.

Cite this Article

Copy Citation | Download Citations

Zhan, L. Using Eye Movements Recorded in the Visual World Paradigm to Explore the Online Processing of Spoken Language. J. Vis. Exp. (140), e58086, doi:10.3791/58086 (2018).

Please note that all translations are automatically generated.

Click here for the english version. For other languages click here.

Abstract

In een typische eye tracking studie met behulp van de visuele wereld paradigma, deelnemers oog bewegingen op objecten of afbeeldingen in de visuele werkruimte worden vastgelegd via een oog-tracker als de deelnemer produceert of omhelst een gesproken taal beschrijven de gelijktijdige visuele wereld. Dit paradigma heeft hoge veelzijdigheid, als het kan worden gebruikt in een breed scala van de bevolking, met inbegrip van degenen die niet kunnen lezen en/of die niet openlijk geven hun gedrags reacties, zoals ongeletterd kinderen, oudere volwassenen en patiënten. Nog belangrijker, het paradigma is zeer gevoelig voor fijnkorrelige manipulaties van het signaal van de toespraak, en het kan worden gebruikt voor het bestuderen van de online verwerking van de meeste onderwerpen in taalbegrip op meerdere niveaus, zoals de fijnkorrelige akoestische fonetische functies, de eigenschappen van de woorden en de taalkundige structuren. Het protocol beschreven in dit artikel ziet u hoe een typische visuele wereld eye tracking studie wordt uitgevoerd, met een voorbeeld waaruit blijkt hoe de online verwerking van sommige semantisch complexe instructies kan worden onderzocht met de visuele wereld paradigma.

Introduction

Gesproken taal is een snelle, continue informatiestroom, die meteen verdwijnt. Het is een uitdaging om experimenteel studeren dit temporele, snel wijzigen toespraak signaal. Oogbewegingen die worden opgenomen in de visuele wereld paradigma kunnen worden gebruikt om te overwinnen van deze uitdaging. In een typische eye tracking studie met behulp van de visuele wereld paradigma, worden oogbewegingen deelnemers foto's in een weergave of reële objecten in een visuele werkruimte gecontroleerd als ze naar luisteren, of produceren, gesproken taal beeltenis van de inhoud van de visuele wereld1 ,2,3,4. De fundamentele logica, of de koppeling hypothese, achter dit paradigma is dat begrijpen of een uiting van plan zal (openlijk of heimelijk) deelnemers visuele aandacht verschuiven naar een bepaald object in de visuele wereld. Deze verschuiving van de aandacht zal hebben een hoge waarschijnlijkheid tot een saccadic oog beweging het bezochte gebied om in te brengen de foveal visie. Met dit paradigma willen de onderzoekers bepalen op welk temporele punt, met betrekking tot sommige akoestische landmark in het signaal van de toespraak, een verschuiving in de visuele aandacht van de deelnemer optreedt, zoals gemeten door een saccadic oog beweging naar een object of een afbeelding in de visuele wereld. Waar en wanneer saccadic oogbewegingen worden gelanceerd in verband met de toespraak signaal worden vervolgens gebruikt om de online taalverwerking afleiden. De visuele wereld paradigma kan worden gebruikt om zowel de gesproken taal begrip1,2 en de productie5,6te studeren. Deze methodologische artikel zal zich richten op begrip studies. In een studie van het begrip met behulp van de visuele wereld paradigma, deelnemers oog bewegingen op de visuele weergave worden gecontroleerd als ze luisteren naar de gesproken uitingen over de visuele weergave.

Verschillende eye tracking-systemen zijn ontworpen in de geschiedenis. De eenvoudigste, goedkoopste en meest draagbaar systeem is gewoon een normale videocamera, die een beeld van de ogen van de deelnemer registreert. Oogbewegingen worden vervolgens handmatig gecodeerd door middel van onderzoek van de frame-voor-frame van de video-opname. Echter de samplefrequentie voor zo'n een oog-tracker is relatief laag, en de codering procedure is tijdrovend. Dus, een hedendaagse commerciële eye tracking systeem normaal gebruikt optische sensoren voor het meten van de richting van het oog in zijn baan7,8,9. Om te begrijpen hoe een moderne commerciële eye-tracking systeem werkt, moeten de volgende punten worden beschouwd. Eerste, voor het correct meten van de richting van de foveal visie en een infrarood verlichter (normaal met de golflengte rond 780-880 nm) normaal wordt gelegd langs of uit de optische as van de camera, waardoor de opname van de leerling distinguishably helderder of donkerder dan de omliggende iris. Het beeld van de leerling en/of de leerling hoornvlies reflectie (normaal gesproken de eerste Purkinje afbeelding) wordt vervolgens gebruikt voor het berekenen van de oriëntatie van het oog in zijn baan. Ten tweede, de locatie van de blik in de visuele wereld is eigenlijk afhankelijk zijn, niet alleen op het oog-oriëntatie ten opzichte van het hoofd, maar ook over de hoofd richting met betrekking tot de visuele wereld. Om nauwkeurig het afleiden van de blik van de verwijzing van de oriëntatie van het oog, de lichtbron en de camera van de oog-trackers worden opgelost met betrekking tot de deelnemers hoofd (hoofd gemonteerde oog-trackers) of zijn vastgesteld met betrekking tot de visuele wereld (tabel gemonteerde of afstand oog-trackers). Ten derde, de deelnemers hoofd geaardheid moet ofwel worden vastgesteld met betrekking tot de visuele wereld of rekenkundig worden gecompenseerd als hoofd van de deelnemers vrij om te bewegen. Wanneer een externe oog-tracker wordt gebruikt in de modus van een hoofd-gratis-te verplaatsen, is meestal de deelnemers hoofd standpunt opgenomen door het plaatsen van een kleine sticker op het voorhoofd van de deelnemers. De afdrukstand van de hoofd wordt vervolgens computationeel afgetrokken van de oog-oriëntatie voor het ophalen van de locatie van de blik in de visuele wereld. Ten vierde, een kalibratie- en een validatieprocedure dienen vervolgens toewijzen van de oriëntatie van het oog aan de blik van de verwijzing in de visuele wereld. In het kalibratieproces, deelnemers fixatie monsters van bekende doel punten vastgelegd, zodat de ruwe oog kaartgegevens om de blik van de positie in de visuele wereld. In het validatieproces, deelnemers gepresenteerd met dezelfde doelstelling punten als het kalibratieproces. Het verschil tussen de positie van de berekende fixatie van de gekalibreerde resultaten en de werkelijke positie van de doelmap voor gefixeerd in de visuele wereld bestaande worden vervolgens gebruikt om te beoordelen van de nauwkeurigheid van de kalibratie. Om te verder bevestigen de juistheid van het toewijzingsproces, een controle drift is normaal van toepassing voor elk afzonderlijk experiment, waar een interne fixatie doelwit wordt aangeboden aan de deelnemers voor het meten van het verschil tussen de berekende fixatie positie en de werkelijke positie van de huidige doelstelling.

De primaire gegevens van een visuele wereld studie is een stroom van blik locaties in de visuele wereld opgenomen in de samplefrequentie voor de oog-tracker, variërend over het geheel of een deel van de duur van de proef. De afhankelijke variabele gebruikt in de studie van een visuele wereld is doorgaans het aantal monsters dat deelnemers vastleggingen op bepaalde ruimtelijke regio in de visuele wereld over een bepaalde tijdsinterval liggen. Om de gegevens te analyseren, moet een tijd-venster ten eerste worden geselecteerd, vaak aangeduid als perioden van belang. Het tijdsinterval is meestal tijd vergrendeld aan de presentatie van bepaalde taalkundige gebeurtenissen in de auditieve input. Bovendien is de visuele wereld ook nodig om te splitsen in verschillende regio's van belang (ROIs), die gekoppeld aan een of meer objecten is. Één dergelijke regio bevat de object dat overeenkomt met het juiste begrip van de gesproken taal, en dus heet vaak het doelgebied. Een typische manier om te visualiseren van gegevens is een complot van de aandeel-voor-fixatie, waar op elke opslaglocatie in een venster van de tijd, het aantal monsters met een blik aan elk gebied van belang zijn gemiddeld over deelnemers en items.

Met behulp van de gegevens die zijn verkregen uit een studie van de visuele wereld, verschillende onderzoeksvragen kunnen worden beantwoord: een) op het niveau van grof-korrel, zijn deelnemers oogbewegingen in de visuele wereld beïnvloed door verschillende auditieve taalkundige input? b) als er een effect, wat is het traject van het effect in de loop van het proces? Is het een lineaire effect of Eersterangs effect? en c) als er een effect, dan op het niveau van de fine-korrel, wanneer is het vroegste temporele punt waar dergelijk effect naar voren komt en hoe lang duurt dit effect laatste?

Om de resultaten statistisch te analyseren, moeten de volgende punten worden beschouwd. Ten eerste, de reactie variabele, d.w.z., verhoudingen van vastleggingen, is zowel onder als boven begrensd (tussen 0 en 1), die zullen volgen een multinomiale verdeling in plaats van een normale verdeling. Voortaan, kunnen niet traditionele statistische methoden op basis van normale verdeling zoals t-test, ANOVA en lineaire modellen (gemengd-effect)10, rechtstreeks worden gebruikt, totdat de verhoudingen zijn getransformeerd naar onbegrensde variabelen zoals met empirische logit formule11 of onbegrensd afhankelijke variabelen zoals de Euclidische afstand12zijn vervangen. Statistische technieken die vereisen niet dat de veronderstelling van normaalverdeling dergelijke veralgemeende lineaire modellen (gemengd-effect)13 kunnen ook worden gebruikt. Ten tweede, voor het verkennen van het veranderende traject van de waargenomen effecten, een variabele ter aanduiding van de tijd-serie heeft om in het model worden toegevoegd. Deze variabele tijd-serie is oorspronkelijk de oog-tracker de monsternemingspunten verlegde aan het begin van de taal invoeren. Aangezien het veranderende traject meestal niet lineair is, is normaal gesproken een eersterangs polynomiale functie van de tijd-serie in de (algemene) lineair (gemengd-effect) model, dat wil zeggengroei curve analyses14toegevoegd. Bovendien deelnemers oog posities in het huidige monsterpunt is sterk afhankelijk van vorige bemonstering punt, vooral wanneer de opname frequentie is hoog, wat resulteert in het probleem van de autocorrelatiefunctie. Verklein de autocorrelatie tussen de aangrenzende meetpunten en zijn oorspronkelijke gegevens vaak neer in de steekproef opgenomen of weggegooid. In de afgelopen jaren zijn ook de modellen van de veralgemeende additieve gemengd effect (GAMM) gebruikt om aan te pakken van de autocorrelated fouten12,15,16. De breedte van opslaglocaties varieert tussen verschillende onderzoeken, variërend van enkele milliseconden tot enkele honderd milliseconden. De smalste bin die een studie kunt kiezen wordt beperkt door de samplefrequentie voor de eye tracker gebruikt in de specifieke studie. Bijvoorbeeld, als een eye tracker een sampling-frequentie van 500 Hz heeft, mag vervolgens de breedte van het venster van de tijd niet kleiner zijn dan 2 ms = 1000/500. Ten derde, wanneer een statistische analyse herhaaldelijk op elke opslaglocatie van de tijd van de periodes van belang toegepast wordt, de familywise fout veroorzaakte daaruit die meerdere vergelijkingen moeten worden aangepakt. Zoals we eerder beschreven, de analyse van het traject informeert de onderzoeker of het effect waargenomen op het niveau van grof-korrel is lineair met betrekking tot het wijzigen van de tijd, maar toont niet wanneer het waargenomen effect begint te ontstaan en hoe lang de waargenomen effect duurt. De temporele om positie te bepalen wanneer het geobserveerde verschil begint te wijken, en om erachter te komen de duur van de tijdelijke periode die duurt van de waargenomen effecten, heeft een statistische analyse herhaaldelijk worden toegepast op elke opslaglocatie van de tijd. Deze meerdere vergelijkingen zal introduceren op de zogenaamde familywise fout, ongeacht welke statistische methode wordt gebruikt. De familywise fout wordt traditioneel gecorrigeerd met Bonferroni aanpassing17. Onlangs, een methode genaamd niet-parametrische permutatie test oorspronkelijk gebruikt in neuroimaging geplaatst18 is vereffend met de visuele woord paradigma19 te controleren voor de familywise fout.

Onderzoekers met behulp van de visuele wereld paradigma willen afleiden van het begrijpen van een gesproken taal van deelnemers oogbewegingen in de visuele wereld. Om ervoor te zorgen de geldigheid van deze aftrek, moeten andere factoren die mogelijk invloed hebben op de oogbewegingen worden uitgesloten of gecontroleerd. De volgende twee factoren behoren tot de gemeenschappelijke regels die moeten worden overwogen. De eerste factor betreft enkele systematische patronen in deelnemers verklarende vastleggingen onafhankelijk van de taal invoeren, zoals de neiging om te fixeren op de linksboven quadrat van de visuele wereld, en de bewegende ogen in de horizontale richting wordt eenvoudiger dan in de verticale richting, etc.12,20 om ervoor te zorgen dat de waargenomen fixatie patronen zijn gerelateerd aan de objecten, niet naar de ruimtelijke locaties waar de objecten zich bevinden, de ruimtelijke positie van een object moeten worden gecompenseerd via verschillende proeven of via verschillende deelnemers. De tweede factor die van invloed kan zijn op de deelnemers oogbewegingen is de basisinstallatiekopie kenmerken van de objecten in de visuele wereld, zoals luminantie contrast, kleur en edge oriëntatie, o.a.21. Om te diagnosticeren van dit potentieel storende, de visuele weergave wordt normaal gepresenteerd voorafgaand aan het begin van de gesproken taal of vóór het begin van de kritische akoestische markering van de gesproken taal, voor ongeveer 1000 ms. tijdens de tijdelijke periode vanaf het begin van de Testafbeelding aan het begin van de test-audio, de taal invoeren of het doorverwijspagina punt van de taal ingang heeft nog niet gehoord. Geen verschil waargenomen tussen verschillende omstandigheden moet worden afgeleid naar andere storende factoren zoals de visuele weergave per se, in plaats van de taal invoeren. Voortaan, bieden oogbewegingen waargenomen in deze preview periode een basislijn voor het bepalen van het effect van de taalkundige input. Deze preview periode kunt ook deelnemers krijgen vertrouwd gemaakt met de visuele weergave, en de systematische vertekening van de verklarende vastleggingen verminderen wanneer de gesproken taal wordt gepresenteerd.

Om te illustreren hoe een typische eye tracking studie met behulp van de visuele wereld paradigma wordt uitgevoerd, beschrijft het volgende protocol een experiment aangepast van L. Zhan17 tot het verkennen van de online verwerking van semantisch complexe verklaringen, dat wil zeggen, Disjunctieve verklaringen (S1 of S2), conjunctieve instructies (S1 en S2) en maar-verklaringen (S1 maar niet-S2). In gewone instandhouding is de informatie die is uitgedrukt door sommige uitingen eigenlijk sterker dan de letterlijke betekenis. Disjunctieve verklaringen zoals Xiaoming van vak bevat een koe of een haan zijn dergelijke uitingen. Logisch, de disjunctieve bewering klopt zolang de twee disjuncts van Xiaoming vak bevat een koe en Xiaoming van vak een haan niet beide zijn onwaar. De disjunctieve bewering klopt dus, wanneer de twee disjuncts beide true zijn, waar de overeenkomstige conjunctieve instructie Xiaoming van vak bevat een koe en een haan ook waar is. In gewone gesprek, echter horen dat de disjunctieve instructie vaak suggereert dat de overeenkomstige conjunctieve instructie onwaar is (scalaire Implicatuur); en stelt dat de waarden van de waarheid van de twee disjuncts onbekend door de spreker (onwetendheid gevolgtrekking zijn). Rekeningen in de literatuur verschillen in of twee gevolgtrekkingen grammaticale of pragmatische processen22,23,24,25,26 zijn. Het experiment ziet u hoe de visuele wereld paradigma te berechten tussen deze rekeningen, door het verkennen van de online verwerking van drie complexe instructies kan worden gebruikt.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alle onderwerpen moeten geven geïnformeerde schriftelijke toestemming vóór de administratie van de experimentele protocollen. Alle procedures, toestemmingsformulieren, en de experimentele protocol werden goedgekeurd door de ethische commissie van onderzoek van de Beijing taal en cultuur-Universiteit.

Opmerking: Een begrip studie met behulp van de visuele wereld paradigma normaliter bestaat uit de volgende stappen uit: voeren de theoretische problemen worden onderzocht; Vormen van een experimenteel ontwerp; Voorbereiden van de visuele en auditieve prikkels; Frame van de theoretische probleem met betrekking tot de proefopzet; Selecteer een oog-tracker voor het bijhouden van deelnemers oogbewegingen; Selecteer een software en bouwen van een script met de software te presenteren van de stimuli; Code en analyseren van de gegevens opgenomen oogbewegingen. Een specifieke experiment kan verschillen van elkaar in een van de beschreven stappen. Als voorbeeld, is een protocol van Madrid introduceerde doe het experiment en bespreekt enkele punten moeten onderzoekers in gedachten te houden wanneer ze bouwen en uitvoeren van hun eigen experiment met behulp van de visuele wereld paradigma.

1. Prepareer Test Stimuli

  1. Visuele stimuli
    1. 60 clip arts van dieren die vrij van auteursrechten van het internet zijn downloaden. Open elke afbeelding één voor één met een foto-editor (bijvoorbeeld Pixelmator), klik op Tools | Gereedschap Snelle selectie te selecteren en verwijderen van de achtergrond. Klik op de afbeelding van de | Afbeeldingsgrootte resize hen tot 120 x 120 pixels.
    2. Uitnodigen een student hoofdvak in de schilderkunst te trekken vier lichte groene vakken, zoals geïllustreerd in Figuur 1. Gebruik de redacteur van het beeld aan de grote open doos 320 x 240 pixels, de kleine gesloten doos met de grootte van 160 x 160 pixels en de twee kleine open vakjes op 160 x 240 pixels, respectievelijk deze.
    3. Klik op Pixelmator | Bestand | Nieuwe op te bouwen van een sjabloon van het beeld van de test met de grootte van 1024 768 pixels. Sleep de vakken en de dieren naar de locaties van de correctie wordt geïllustreerd in Figuur 1.
      Opmerking: De indeling van de testafbeelding varieert tussen studies, maar de optimale manier is het gebruik van vier objecten en zet ze op de vier kwadranten van het beeld van de test. Op deze manier is het makkelijker als tegenwicht tegen de ruimtelijke positie van de objecten.
    4. Maak 60 testopnamen zoals Figuur 1, met elke dierlijke afbeelding tweemaal wordt gebruikt. Tegenwicht bieden aan de ruimtelijke locaties van de vier vakken onder de beelden.
      Opmerking: Het nummer van de beelden niet hoeft te zijn exact 60, zolang hun effect scheidbaar van die van de experimentele manipulaties is.
  2. Gesproken taal stimuli
    1. Ontwerp vier test zinnen overeenkomt met elke testafbeelding en 240 test zinnen in totaal worden geregistreerd. Zorgen dat drie van de vier zinnen in de vorm van Figuur 2; en de vuller zin is in de vorm van de Xiaoming vak niet bevatten een haan maar een koe.
      Opmerking: De test zinnen moeten worden gepresenteerd in de inheemse taal die deelnemers spreken. De deelnemers aan dit experiment zijn Chinese uit Beijing, Volksrepubliek China, dus de taal van de test Mandarijn Chinees is.
    2. Het werven van een vrouwelijke native speaker (een native speaker van Mandarijn Chinees in dit experiment) om vast te leggen vier voorbeeld verklaringen zoals Figuur 2, evenals de audio voor alle dieren wordt gebruikt in het experiment. Bij het opnemen van de geïsoleerde dierlijke namen, vraagt de spreker om te veronderstellen dat de namen van de dieren zijn intact onderdelen van een eenvoudige zin, zoals de Xiaoming vak bevat een/een ___, maar ze moet alleen de naam van het dier openlijk uit te spreken.
    3. De audio segmenten van de twee dieren in de verklaringen van de voorbeeld vervangen door de audio van de twee dieren gebruikt in elk proces voor het maken van de volledige lijst van de test-audio. Eerst, open Praat (alle andere audio-editing software is een in aanmerking komende alternatief) en klik op Open | Lezen uit bestand | Navigeer naar het bestand | Openen en bewerken, Navigeer naar een element dat u wilt vervangen en klik op weergeven en bewerken | Bewerken | Selectie naar geluid Klembord kopiëren. Ten tweede, u dezelfde stappen om te openen een voorbeeld van de instructie, klikt u op Plakken na selectie. Derde, klikt u op opslaan | opslaan als wav-bestand op te slaan van de verklaring van de bewerkte. Herhaal het proces voor alle elementen worden veranderd en alle test zinnen.
    4. Werven van ongeveer 10 native speakers van de test-taal (Mandarijn Chinees hier) om te bepalen of de geconstrueerde test audio begrijpelijk en natuurlijke is.
      Opmerking: De test audio is traditioneel opgenomen als een geheel, in plaats van afzonderlijke woorden. Deze traditionele opnamemethode is redelijk dat als de test-audio zelf afzonderlijke woorden. Als de gesproken taal prikkels zinnen in plaats van afzonderlijke woorden zijn, deze traditionele methode heeft echter meerdere tekortkomingen: ten eerste een alomtegenwoordige eigenschap van een continu toespraak is dat twee of meer spraak klinkt de neiging om het stoffelijk en ruimtelijk overlappen, dat maakt het moeilijk om te bepalen van het begin van het kritische woord. Ten tweede, het verschil tussen de lengte van de verschillende proeven maakt het ook moeilijk te combineren alle proeven samen voor statistische analyses. Ten derde, de traditionele opnamemethode is vaak tijdrovend vooral wanneer de nummers van de audio van de test zijn relatief groot, zoals de experimenten die hebben we gemeld in het protocol. Om te overwinnen van de tekortkomingen van de traditionele opnamemethode, wordt een andere methode voorgesteld voor de bouw van de gesproken test-audio. Ten eerste, een aantal voorbeeld zinnen met de woorden die gebruikelijk is bij alle test audio werd opgenomen. Ten tweede, alle woorden dat de wijziging tussen proeven werden ook geregistreerd in isolatie. Ten slotte, monster zinnen werden vervangen door de opgenomen woorden voor de bouw van de volledige lijst van de test-audio. Vergeleken met de traditionele methode, heeft de nieuwe methode verschillende voordelen. Eerst worden al de test audio is precies het zelfde behalve voor de kritische woorden, en alle mogelijke storende effecten in de test audio voortaan aangestuurd. Ten tweede, wordt hetzelfde in lengte maakt ook de segmentatie van de audio van de test makkelijker dan wanneer de audio van de test worden geregistreerd als een geheel. Een potentieel nadeel van deze methode is dat de geconstrueerd audio mogelijk niet natuurlijke. Voortaan moet de natuurlijkheid van de audio van de test worden geëvalueerd voordat ze in aanmerking voor het daadwerkelijke testen komen...
  3. Verdeel de 240 test zinnen in vier groepen, met elke groep met 15 conjunctieve verklaringen, 15 Disjunctieve verklaringen, maar verklaringen van 15 en 15 vuller zinnen. Zorgen dat iedere deelnemer slechts één groep van 240 proeven aantreft: hij/zij ziet alle detest beelden maar hoort slechts één groep van de audio van de test.
    Nota: Dit is ingaan op de bezorgdheid dat als de dezelfde stimulus wordt herhaald, deelnemers kunnen worden steeds gewend aan deze stimuli en eventueel zelfs steeds strategische over hoe ze hebben gereageerd op de prikkels.
  4. Sla alle belangrijke informatie met betrekking tot de test prikkels in een tab-delimited txt-bestand, waarbij elke rij overeenkomt met elk van de 240 proeven. Controleer of het bestand ten minste de volgende kolommen bevat: experiment_group, sentential_connective, trial_number, test_image, test_audio, test_audio_length, ia_top_left, ia_top_right, ia_bottom_left, ia_bottom_right, animal_1_ afbeelding, animal_1_audio, animal_1_audio_length, animal_2_image, animal_2_audio, animal_2_audio_length.
    Opmerking: experiment_group wordt gebruikt voor het splitsen van de 240 proeven in 4 groepen. sentential_connective komt overeen met verschillende experimentele omstandigheden. animal_1_image komt overeen met de afbeelding van het dier in de eerste plaats om de deelnemers vertrouwd met de dieren die worden gebruikt in de testafbeelding te worden gepresenteerd. test_image, test_audioen test_audio_length verwijzen naar de testafbeelding en de audio van de test zo goed zijn lengte gebruikt in het huidige proces. ia_top_left, ia_top_right, ia_bottom_left, ia_bottom_right verwijzen naar de naam van de vier interesse gebieden in het huidige proces, dwz., of het is een vak "Groot open", "klein gesloten" vak, de kleine open vak met het dier "voor het eerst genoemd" in de audio-test, of kleine open met de "tweede vermeld" dier in de test-audio. animal_1_audio en animal_1_audio_length verwijzen naar de audio en de lengte van de audio die overeenkomt met de animal_1_image. animal_2_image, animal_2_audioen animal_2_audio_length komen overeen met het tweede dier dat zal worden voorgelegd. Een ding te benadrukken is dat de volgorde om te presenteren van de twee dieren is gecompenseerd met betrekking tot de vraag of het dier wordt genoemd in de eerste of de tweede helft van de audio van de test.

2. de theoretische voorspelling met betrekking tot de proefopzet frame.

  1. Zorgen deelnemers gedrags reacties en oogbewegingen in de proefopzet kunnen worden gebruikt om te onderscheiden van de comprehensions van de test zinnen en inzetbaar te berechten tussen verschillende rekeningen moeten worden getest.
    Opmerking: Gezien de proefopzet, is het juiste antwoord op een conjunctieve verklaring de grote open vak, zoals vak A in Figuur 1. Het juiste antwoord op een maar-verklaring is de open vakje met het dier wordt genoemd in de eerste helft van de test-audio, zoals vak D in Figuur 1. Reacties van de deelnemers aan de disjunctieve instructie, is echter afhankelijk van of en/of hoe de twee besproken gevolgtrekkingen worden verwerkt. Als deelnemers de scalaire Implicatuur noch de gevolgtrekking van onwetendheid berekenen, dan zijn alle vier dozen in aanmerking komende opties. Als deelnemers dat de scalaire Implicatuur maar niet de gevolgtrekking van onwetendheid, dan de grote open berekenen, zoals vak A in Figuur 1, zullen worden uitgesloten, en de overige drie vakken B, C en D zijn alle in aanmerking komende opties. Als deelnemers de gevolgtrekking van onwetendheid, maar niet de scalaire Implicatuur berekenen, dan de kleine open vakken zal worden uitgesloten, dwz., de vakken C en D zal worden uitgesloten. Om samen te vatten, wordt niet de kleine gesloten doos, zoals vak B in Figuur 1, gekozen als de laatste optie van een Disjunctieve verklaring tot de scalaire Implicatuur en de onwetendheid gevolgtrekkingen zijn beide berekend.

3. bouw de experimentele Script

  1. Open de Experiment Builder, -Klik bestand | Nieuwe een experiment-project maken. Voer de naam van het project zoals vwp_disjunction. Selecteer de projectlocatie. Controleer EyeLink Experiment en Eyelink 1000plus kiezen in de lijst van de daling. Deze operaties zal leiden tot een submap met alle bestanden die aan het experiment worden gerelateerde dat het ontstaat er een submap met de naam vwp_disjunction met een bestand met de naam "graph.ebd" in de map.
    Opmerking: Experiment Builder wordt gebruikt om de experimentele script te presenteren van de test prikkels en het optekenen van deelnemers oogbewegingen, alsmede hun gedrags reacties te bouwen. De bouwer van het Experiment is een What-You-See-Is-What-You-Get hulpmiddel om experimentele script te bouwen. Het is makkelijk te gebruiken, maar een andere prikkels presentatie-software is een in aanmerking komende alternatief.
  2. Visualiseer de hiërarchische structuur van een typische eye-tracking experiment met behulp van de visuele wereld paradigma, zoals te zien in Figuur 3. Elke roze rechthoek in de figuur is geïmplementeerd als een SEQUENCE-object door Experiment Builder; en elk object met grijze achtergrond wordt geïmplementeerd als een knooppuntobject.
    Opmerking: Een reeks in de Experiment Builder is een controller van de experimentele lus gebruikt om de keten van verschillende objecten als een complex knooppunt. Een reeks begint altijd met een knooppunt START . En een gegevensbron kan worden gekoppeld aan een knooppunt van de reeks te verstrekken van de verschillende parameters voor elk afzonderlijk experiment.
  3. De volgorde van het Experiment te bouwen
    1. Klik op bestand | Open, blader naar de map van experiment en dubbelklik op het bestand graph.ebd in de projectmap om de opgeslagen experiment-project te openen.
    2. Klik op bewerken | Bibliotheek Manager | Afbeelding | Toevoegen voor het laden van de beelden in de experiment Project. Ook bewerken klik op | Bibliotheek Manager | Geluid | Toevoegen voor het laden van het geluid in de experiment-project.
    3. Sleep een DISPLAY_SCREEN -object in de werkruimte en wijzigt de waarde van de label in het deelvenster Eigenschappen te hernoemen als instructie. Tweemaal klikken aan open het instructie -knooppunt en klik op de knop Invoegen Multiline van de tekst, de bron van de verpakking te voeren van de experimentele instructie. Zorgen dat de instructie bevat de volgende informatie:
      In elk afzonderlijk experiment, eerst ziet u beelden van twee dieren, elke één dier afgedrukt op het scherm op zijn beurt, samen met de audio van de dieren gespeeld op de twee sprekers gelegen aan beide zijden van het scherm. Een zwarte stip worden in het midden van het scherm weergegeven. U moet druk op de SPATIEBALK terwijl fixering op de stip. Vervolgens zal u een beeld van de test die bestaat uit vier vakken afgedrukt op het scherm zien en horen een test zin wordt afgespeeld via de twee sprekers. Uw taak is om Zoek Xiaoming van het volgens de test zin je gehoord en druk op de overeenkomstige knop zo spoedig mogelijk:
      Pictogram linksboven vak---pijl-links
      Bovenaan in het vak rechtsonder---pijl-omhoog
      Linksonder vak---pijl-links
      Onder in het vak rechtsonder---pijl-rechts
      In elke testafbeelding ziet u vier vakken gelegen aan de vier kwadranten en twee dieren met in de vakken. De vier vakken kunnen variëren in twee dimensies: de nabijheid en de grootte. Of een vak is gesloten of niet van invloed op onze epistemische kennis op die doos, maar niet het dier/de dieren die het bevat. Als een vak open is, dan heet het dier/de dieren die in dat vak. Als een vak is gesloten, dan is het dier/de dieren opgenomen in die doos is onbekend. De grootte van een doos is van invloed op het aantal dieren die in het vak, maar niet onze epistemische kennis over dat vak. Geen kwestie het vak is gesloten of niet, een klein vakje alleen en altijd bevat één dier, en een grote doos bevat altijd twee verschillende dieren.
      Als u vertrouwd met de procedure en experimentele doelstelling bent, laat de experimentator weten en wij helpen u om uit te voeren van het standaard oog voor het bijhouden van kalibratie en validatie routines. Als u vragen hebt, aarzel dan niet om te vragen.

      Opmerking: Dit is een instructie die moet worden afgedrukt op het scherm vóór het experiment (de instructies moeten worden geschreven in de moedertaal die de deelnemers, zoals Mandarijn Chinees hier spreken).
    4. Sleep een toetsenbord -object in de werkruimte.
      Opmerking: Deze stap wordt gebruikt om te eindigen van het instructie -scherm
    5. Sleep een SEQUENCE -object in de werkruimte en hernoem het als blok.
    6. Selecteer de blok -reeks, klikt u op het waardeveld van de eigenschap Data Source om de Data Source Editor. Klik op de knop Gegevens importeren op de gegevens bron editor scherm, wenkbrauw aan het txt-bestand dat is gemaakt in stap 1.4 aan de gegevensbron hebt geïmporteerd.
    7. Klik op de knop van de Randomisatie instelling in de Broneditor gegevens, controleren Inschakelen Trial randomisatie, trial_number selecteren in het waardeveld van het veld van de kolom en selecteer experimental_group uit de vervolgkeuzelijst van de Kolom splitsen -veld.
    8. Sleep de tweede DISPLAY_SCREEN bezwaar maken tegen de werkruimte en hernoem het als Goodbye. Tweemaal klikken het Goodbye -knooppunt en de volgende informatie invoegen: in deelnemers moedertaal (Mandarijn Chinees in dit protocol):het experiment is afgewerkt en dank u voor zeer veel uw deelname.
    9. Klik met de linkermuisknop op het knooppunt START , sleept u de pijl naar het knooppunt instructie en laat de muisknop los om verbinding maken met het knooppunt START aan het knooppunt van de instructie . Herhaal dat de zelfde muis beweegt instructie knooppunt verbinden met het toetsenbord -knooppunt, toetsenbord knooppunt naar blok knooppunt, vervolgens blok knooppunt naar het knooppunt vaarwel . Klik op weergeven | Regelen van de lay-out te regelen van de knooppunten in de werkruimte.
  4. De volgorde van het blok te bouwen
    1. Tweemaal klikken aan open de blok -reeks. Sleep een El_CAMERA_SETUP -knooppunt in de reeks van de blok om een camera setup-scherm op de EyeLink Host PC voor de experimentator te voeren camera opstelling, kalibratie en validatie. Klik op het veld van het Type kalibratie in het Properties paneel en kies HV5 uit de dropdown lijst.
      Opmerking: Het aantal locaties in het toewijzingsproces varieert tussen verschillende experimentele designs. De meer locaties bemonsterd en des te meer ruimte bedekt, des te groter de nauwkeurigheid kan worden verwacht. Maar meer monsters betekent meer tijd tot het einde van de processen. Dus praktisch, kan het aantal locaties in een specifieke studie niet erg groot, vooral wanneer deelnemers ongeletterd kinderen of klinische patiënten zijn. In de visuele wereld paradigma, het nummer van de gebieden van belang is relatief klein en de gebieden van belang zijn meestal relatief groot. Het toewijzingsproces kan het bereiken van een bevredigend niveau met relatief klein aantal locaties. In het protocol die ik heb beschreven, gebruikte ik een vijf punten kalibratie en validatie.
    2. Sleep een reeks knooppunten binnen het blok volgorde en hernoem het als proces. Sluit het knooppunt START aan het knooppunt van de CAMERA_SETUP , vervolgens naar de SEQUENCE-knooppunt.
  5. Bouwen van de volgorde van de proef
    1. Tweemaal klikken aan open de Trial -reeks, sleept u een knooppunt van de DISPLAY_SCREEN in de Trial -reeks en hernoem het als animal_1_image. Tweemaal klikken aan open het Scherm Builder -knooppunt en klik op de knop Afbeelding Resource invoegen op de werkbalk van het scherm Builder een dierlijke afbeelding invoegen uit de bronnen van de geüploade afbeelding. Klik op het waardeveld van de eigenschap Bron bestandsnaam , navigeer naar de DataSource gekoppeld aan de blok volgorde; en dubbelklik op de kolom van de Animal_1_Image om te verbinden de DISPLAY_SCREEN met de juiste kolom van de gegevensbron.
    2. Sleep een PLAY_SOUND -knooppunt in de reeks van de proef en hernoem het als animal_1_audio. Klik op de eigenschap Sound File van het animal_1_audio knooppunt en verbinding te maken met de juiste kolom van de gegevensbron (zoals wordt beschreven in stap 3.5.1).
    3. Sleep een TIMER -knooppunt in de reeks van de proef en hernoem het als animal_1_audio_length. Klik op de eigenschap Duration van het TIMER knooppunt en navigeer naar de juiste kolom van de gegevensbron die is gemaakt in 3.4.1.
    4. Sleep een ander knooppunt van de DISPLAY_SCREEN , een ander knooppunt van de PLAY_SOUND en een ander TIMER -knooppunt in de Trial -reeks, de naam ervan wijzigen als animal_2_image, animal_2_audio, en dier _2_audio_duration, herhaalt u de stappen die worden beschreven in stappen 3.5.1 - 3.5.3.
      Opmerking: Deze stappen zijn opgenomen om te bepalen voor het potentiële verstorende dat dezelfde afbeelding kan een andere naam door verschillende deelnemers. Tegenwicht bieden aan de volgorde van presentatie van de twee dieren met betrekking tot of wordt genoemd in de eerste of de tweede helft van de audio van de test.
    5. Sleep een Bereiden Sequence -object in de reeks van de proef en de eigenschap Trekken naar Eyelink Host op afbeeldingwijzigen.
      Opmerking: Dit knooppunt wordt gebruikt om de voorspanning het beeld en audio bestanden naar het geheugen voor tekening van de real-time beeld en geluid afspelen. En het wordt ook gebruikt voor het tekenen van feedback graphics op de Host-PC, zodat de deelnemers blik nauwkeurigheid kan worden gecontroleerd.
    6. Sleep een DRIFT_CORRECT -knooppunt in de reeks van de proef in te voeren van de drift-correctie.
    7. Sleep een nieuwe reeks knooppunt en hernoem het als opname. Verbinden met het START deze knooppunten één na één.
  6. Bouwen van de volgorde van de opname
    1. Controleren van het veld van de Record in het deelvenster eigenschap van de opname -reeks, en tweemaal klikken aan open de volgorde van de opname .
      Opmerking: Een reeks met Record eigenschap gecontroleerd betekent dat deelnemers oogbewegingen tijdens deze periode worden vastgelegd.
    2. Sleep een nieuwe DISPLAY_SCREEN in de reeks van de Record , hernoem het als test_image. Het bericht test_image_onset in de bericht -eigenschap van het test_image knooppunt toevoegen.
      Opmerking: In data analyses fase, het bericht in het test_image knooppunt en het bericht in het test_audio knooppunt (sectie 3.6.6) zijn belangrijk voor het begin van de testopnamen en het begin van de test-audio zoeken in elk afzonderlijk experiment.
    3. Tweemaal klikken aan open het Scherm Builder -knooppunt en klik op de knop Afbeelding Resource invoegen op de werkbalk van het scherm Builder dierlijke afbeelding invoegen uit de bronnen van de geüploade afbeelding. Klik op het waardeveld van de Bron bestandsnaam eigenschap, navigeer naar de DataSource gekoppeld aan de blok volgorde; en dubbelklik op de kolom van de test_image om te verbinden de DISPLAY_SCREEN met de juiste kolom van de gegevensbron.
    4. Dubbel klik op het knooppunt van de DISPLAY_SCREEN om het Scherm Builderopenen en klik op de knop Invoegen rechthoek belang gebiedregio trekken vier rechthoekige gebieden van belang zoals wordt geïllustreerd door de blauwe dozen in Figuur 1. De etiketten van de vier aandachtsgebieden omzetten in Top_Left, Top_Right, Bottom_Leften Bottom_Right, en sluit de DataViewer naam geplaatst met de juiste kolommen van de gegevensbron.
      Opmerking: Deze gebieden zijn onzichtbaar voor de deelnemers. De gebieden van belang meer om zinvol te maken, de naam van linksboven gebied in het voorbeeld zoals "Vak een (grote open)" label, gebied top juiste gebied als "Vak B (klein gesloten)", bottom links gebied als "Vak C (tweede genoemd)", en gebied onder juiste gebied als "vak D (voor het eerst genoemd)" , omdat de twee kleine open vakjes bevatten de twee dieren die worden genoemd in de eerste en de tweede helft van de audio van de test, respectievelijk.
    5. Een TIMER -knooppunt naar de werkruimte sleept, hernoem het als pauzeen wijzigen van de eigenschap Duration aan 500 ms.
      Opmerking: Deze TIMER knooppunt voegt sommige tijdspanne tussen het begin van de testafbeelding en het begin van de test-audio. De tijdspanne geeft deelnemers de kans vertrouwd maken met de testopnamen. Deelnemers oogbewegingen tijdens deze preview periode bieden ook een basislijn voor het bepalen van de gevolgen van de inbreng van de gesproken taal, vooral wanneer de kritische woorden bevinden zich aan het begin van de test-audio.
    6. Sleep een PLAY_SOUND knooppunt in naar de werkruimte en hernoem het als test_audio. Klik op de eigenschap Sound File en verbinding te maken met de juiste kolom van de gegevensbron (zoals wordt beschreven in stap 3.5.1) en de bericht toevoegen test_audio_onset in de berichteigenschappen .
    7. Een TIMER -knooppunt naar de werkruimte sleept, hernoem het als test_audio_length. De eigenschap Duration omzetten in 10500 ms.
    8. Een nieuw knooppunt TIMER toevoegen, naam van het record_extensionwijzigen en wijzigen van de eigenschap Duration 4000 MS.
    9. Een nieuw toetsenbord knooppunt toevoegen in de werkruimte, hernoem het als gedragsmatige reactiesen de aanvaardbare sleutels eigenschap wijzigen naar "[omhoog, omlaag, rechts, links]".
      Opmerking: Deelnemers gedrags keuzes kunnen worden gebruikt om dubbel te controleren de geldigheid van de conclusie is afgeleid van deelnemers oogbewegingen.
    10. Sluit het knooppunt START aan pauze, test_audio, test_audio_length, vervolgens naar Record_extension knooppunt. Een andere verbinding van test_audio_length naar behavioral_responses knooppunt toevoegen.
      Opmerking: Door toevoeging van deze verbindingen, huidige proces beëindigd en een nieuw proces zal opstarten nadat deelnemers maakte een toets drukt om te kiezen van Xiaomingvak of 4000 ms na de verschuiving van de test audio.
    11. Een variabele knooppunt naar de werkruimte sleept, hernoem het als key_presseden behavioral_Responses toetsenbord verbinden met de eigenschap value | Geactiveerd gegevens |  Sleutel.
    12. Een knooppunt van de RESULT_FILE naar de werkruimte sleept, sleept u een knooppunt van de ADD_TO_RESULT_FILE in de werkruimte en het record_extension knooppunt zowel het knooppunt behavioral_responses verbinden met de ADD_TO_RESULT_FILE knooppunt.
  7. Klik op Experiment | Bouwen om te bouwen van het experimentele script, klikt u op Experiment | Test uitvoeren om te testen het experiment uitvoeren. Nadat alles klaar is, klikt u op Experiment | Implementatie van om een uitvoerbare versie van het experimenteel project te maken.
    Opmerking: Voor meer informatie over het gebruik van de bouwer van het Experiment, Raadpleeg de software handmatig27.

4. het werven van deelnemers

  1. Zorgen voor de deelnemers om normale of gecorrigeerde normaal gezichtsvermogen. Aanbevelen dat de kortzichtige deelnemers aan het dragen van contactlenzen, maar glazen ook aanvaardbaar zijn zolang de lenzen schoon zijn. Ervoor zorgen dat alle deelnemers moedertaalsprekers van de testen taal, zoals Mandarijn Chinees hier.
    Opmerking: Als algemene leidraad, een deelnemer wordt beschouwd als in aanmerking komende zolang de deelnemer de testopnamen op een afstand van ongeveer 60 centimeter ziet. In termen van het aantal deelnemers, volgens enkele vuistregels, moet het aantal deelnemers voor regressie-analyse niet minder dan 50. Hier, deelgenomen zevenendertig postdoctorale studenten uit de Peking taal en cultuur-Universiteit in het experiment, dat een beetje kleiner is dan het aanbevolen bedrag is.

5. gedrag van het Experiment

Opmerking: Wanneer deelnemers normaal ontwikkelde volwassenen zijn, een experimentator volstaat om het gedrag van het experiment. Maar als deelnemers speciale bevolkingsgroepen, zoals kinderen zijn, twee of meer onderzoekers nodig zijn.

  1. Selecteer een eye tracker te registreren van oogbewegingen deelnemers.
    Opmerking: De oog-drijver gebruikt in dit experiment is Eyelink 1000plus uitgevoerd onder de vrij-aan-hoofd verplaatsingsmodus. Dit is een videogebaseerd, desktop gemonteerde eye tracking systeem, met behulp van het beginsel van de leerling met hoornvlies reflectie (CR) voor het bijhouden van de rotatie van het oog. Wanneer uitgevoerd onder de vrij-aan-hoofd verplaatsingsmodus, heeft de eye tracker de monoculaire bemonsteringssnelheid van 500 Hz, met een ruimtelijke resolutie van 0,01 ° en een gemiddelde fout van minder dan 0,5 °. Raadpleeg voor meer gedetailleerde informatie van het systeem, de technische specificatie28,29. Alternatieve trackers kunnen worden gebruikt, maar degenen met externe tracking modus zijn beter, vooral wanneer deelnemers ongeletterd kinderen zijn.
  2. Het opstarten van het systeem op de Host-PC om te beginnen met de Host-toepassing van de camera.
  3. Configureren van het systeem extern bureaubladmodus, klik op de knop Set optie , de configuratie -optie ingesteld op Desktop--Target Sticker--monoculaire--16/25 mm lengte--RTARBLER.
  4. Klik op de uitvoerbare versie van het experimenteel project op de Display-PC, de naam van de deelnemeren kies een groep in het snelle venster te voorwaarde waarde uit te voeren. selecteren
    Opmerking: Elke testsessie wordt een map gemaakt met de ingevoerde naam onder de submap resultaten van het experiment-project. Het EOF-bestand onder de map bevatte relevante oog bewegingen gegevens.
  5. Vraag de deelnemers om te zitten ongeveer 60 cm vanaf een 21 inch, 4:3 kleurenmonitor met de resolutie van de x 769px van het 1024px, waar 27 pixels gelijk aan 1 graad van hoek.
  6. Pas de hoogte van de Display PC monitor, ervoor te zorgen dat wanneer de deelnemer zit en op zoek rechtdoor, ze verticaal op het midden zoekt naar boven 75% van de monitor.
    Opmerking: De stoel, Bureau en/of de monitor van de PC hebben de voorkeur als ze in hoogte verstelbaar zijn. De stoel en het Bureau met wielen moet worden vermeden, aangezien zij neigen te veroorzaken van onbedoelde beweging en roll.
  7. Plaats een kleine doel sticker op het voorhoofd van de deelnemers, om bij te houden van het hoofd plaats zelfs wanneer de leerling-afbeelding verloren gaan, zoals tijdens knippert of plotselinge bewegingen.
    Opmerking: Verschillende oog trackers kunnen verschillende methoden gebruiken voor het bijhouden van deelnemers hoofd. Het maximaliseren van het bereik van de zijdelingse beweging van het onderwerp, moet het bijgehouden oog aan dezelfde kant als het hulplicht.
  8. Draai de focus arm op de beweegbare bureausteun om het oog beeld naar voren.
  9. Klik op de Calibrate -knop op de host PC uit te voeren van het kalibratieproces door gevraagd deelnemers aan een raster van vijf fixatie doelen in willekeurige opeenvolging met geen openlijke gedrags reacties, fixeren deelnemers oogbewegingen toewijzen aan de blik van de verwijzing in de visuele wereld.
  10. Klik op de knop valideren klikt op de host-PC om te valideren de gekalibreerde resultaten door gevraagd deelnemers aan het zelfde raster van fixatie doelstellingen te fixeren. Herhaal de kalibratie en validatie routines, wanneer de fout groter dan 1 is °.
  11. De twee routines aan het begin van het experiment, en wanneer de meetnauwkeurigheid slecht is gedrag (bv., na de sterke hoofdbewegingen of een verandering in de houding van de deelnemers).
  12. Klik op de knop opnemen in de host-PC om te beginnen met het experiment.
  13. Een controle van de drift voor elk afzonderlijk experiment uitvoeren door te vragen van de deelnemers aan de druk op de spatiebalk op het toetsenbord terwijl fixering op de zwarte stip in het midden van het scherm gepresenteerd.
    Opmerking: Wanneer de deelnemers zijn ongeletterd kinderen of klinische patiënten, expliciet instrueren hen te druk op het toetsenbord terwijl fixering van de zwarte stip normaal onpraktisch is. Maar hun aandacht en oog fixaties neiging om automatisch worden aangetrokken door de weergegeven zwarte stip. De experimentator moet in dit geval de persoon die op het toetsenbord drukt terwijl de deelnemer op de zwarte stip is fixering.
  14. Presenteren van de visuele stimuli via de Display PC-monitor en spelen de auditieve prikkels via een paar van externe luidsprekers gelegen naar links en rechts van de monitor (oortelefoons zijn ook aanvaardbaar).
    Opmerking: De opnames worden afgespeeld vanaf de hardeschijf als 24 kHz mono clips met geluid. Als er geen bijzondere reden, worden clips met mono geluid aangenamer zijn wanneer u clips met stereo geluid. In een stereo geluidsclip, kan het verschil tussen de twee soundtracks, evenals het verschil tussen de twee sprekers deelnemers oogbewegingen beïnvloeden. Raadpleeg voor meer informatie over het gebruik van de eye tracker, de gebruiker handmatig30.

6. gegevens codering en Analyses

  1. Gegevensinzage openen, klikt u op bestand | Bestand importeren | Meerdere Eyelink gegevensbestanden importeren voor het importeren van alle opgenomen eye tracker bestanden (met de extensie van het EOF) en ze opslaan in één . EVS bestand.
  2. Open de opgeslagen EVS-bestand en klik op analyse | Verslagen | Voorbeeldrapport voor het exporteren van de ruwe voorbeeldgegevens met geen aggregatie.
    Opmerking: Indien de tracker oog een sampling-frequentie van 500 Hz heeft, de geëxporteerde gegevens echter wel 500 gegevenspunten, voortaan 500 rijen, per tweede per proef. Als deelnemers linkeroog wordt bijgehouden, controleert u de volgende kolommen evenals de variabelen gemaakt in de gegevensbron worden geëxporteerd: RECORDING_SESSION_LABEL, LEFT_GAZE_X, LEFT_GAZE_Y, LEFT_INTEREST_AREA_LABEL, LEFT_IN_BLINK, LEFT_IN_SACCADE, LEFT_PUPIL_ GROOTTE, SAMPLE_INDEX, SAMPLE_MESSAGE. Raadpleeg voor meer informatie over hoe u kunt Gegevensinzage gebruiken, de software handmatig31.
  3. De statistische analyses te beperken tot het temporele venster vanaf het begin van de testafbeelding om de offset van de audio van de test, dwz., de temporele venster met de duur van 11 s.
  4. Verwijder de monsters waar deelnemers oogbewegingen worden niet geregistreerd, zoals deelnemers Knipper met hun ogen, die treft ongeveer 10% van de vastgelegde gegevens.
    Opmerking: Dit is een optionele stap, aangezien de resultaten normaal gesproken hetzelfde zijn, ongeacht of deze monsters verwijderd.
  5. Code van de gegevens. Voor de bouw van de gegevens voor een bepaald gebied van belang in een bepaalde monsterpunt, code de gegevens als 1 als deelnemers oog fixatie is gelegen in het gebied van belang zijn voor het op dat punt van de bemonstering worden geanalyseerd. Code de gegevens als de waarde 0 als de fixatie van het oog niet in de gebieden van belang bij dat monsterpunt gelegen is.
  6. Teken een aandeel-voor-fixatie om te visualiseren van de verkregen data. Voor het berekenen van de aandeel-voor-vastleggingen over bepaalde interessegebied, gemiddelde wijs de gecodeerde gegevens voor alle van de proeven en voor alle deelnemers in elk monster onder elke voorwaarde. Plot de berekende aandeel-voor-vastleggingen op de y-as tegen het monsterpunt op de as, met verschillende panelen ter aanduiding van de gebieden van belang en met de plotting kleuren ter aanduiding van de verschillende experimentele omstandigheden.
    Opmerking: In het experiment, de vier panelen afgebeeld deelnemers fixatie patronen op de vier gebieden van belang. De rode, groene en blauwe lijnen geïllustreerd deelnemers fixatie patronen toen de verklaringen van de test voegwoorden (S1 en S2), maar-instructies (S1 maar niet S2) en disjunctions (S1 of S2), respectievelijk waren. De software gebruikt bij het tekenen van de beschrijvende plot is het pakket van de ggplot2 van R-omgeving. Andere software is ook beschikbaar. Figuur 5 is een voorbeeld van dergelijke plot.
  7. Passen een binomiale veralgemeende lineaire gemengd model (GLMM) op elk gebied van belang bij elk meetpunt, zoals de gegevens werd gecodeerd als 1 of 0, afhankelijk van of de deelnemer fixatie binnen of buiten het interessegebied op dat punt van de bemonstering gelegen is.
    Opmerking: Als de gegevens niet is weggegooid en de gecodeerde gegevens alleen 1 of 0 worden kunnen, dus de verdeling van de gecodeerde gegevens is binaire in plaats van normaal. Voortaan, wordt een model van de GLMM met de familie van de binomiale verdeling gebruikt. Het GLMM-model bevat een vaste looptijd, de experimentele omstandigheden, en twee willekeurige termen, deelnemers en items. De formule geëvalueerd met de twee willekeurige voorwaarden bevat zowel de onderschept en de helling van de experimentele omstandigheden. De software gebruikt om te doen de montage van het model is het pakket lme4 van R-omgeving. Andere software is ook beschikbaar. Een ding moet worden vermeld is dat de basislijn van de objecten met een vaste verschilde toen de geanalyseerde interessegebied, dwz., de geanalyseerde vakken zijn verschillend. Om specifieker te zijn, werd de combinatie (S1 en S2) gekozen als de basislijn bij het analyseren van het grote-open vak (vak A), de disjunctie (A en B) werd gekozen als de basislijn bij het analyseren van de kleine-gesloten vak (vak B), en de verklaring van de maar werd gekozen als de basislijn bij het analyseren van de eerstgenoemde vak (vak D).
  8. Bonferroni aanpassen de p -waarden, verkregen met Wald z test, te verminderen de familywise fout veroorzaakt door meerdere vergelijkingen.
    Opmerking: Bonferroni aanpassing is de traditionele manier aan te pakken van de familywise fout veroorzaakt door meerdere vergelijkingen. Er zijn ook andere methoden beschikbaar, zoals we in de sectie Inleiding beschreven.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Deelnemers gedrags reacties worden samengevat in Figuur 4. Zoals we eerder beschreven, is het juiste antwoord op een conjunctieve verklaring (S1 en S2) het grote open vak, zoals vak A in Figuur 1. Het juiste antwoord op een maar-verklaring (S1 maar niet S2) is het open vakje met de eerste genoemde dier, zoals vak D in Figuur 1. Kritisch, welke vak de disjunctieve verklaring (S1 of S2) wordt gekozen hangt af van hoe een Disjunctieve verklaring wordt verwerkt: de kleine gesloten doos, zoals vak B in Figuur 1, alleen als wordt gekozen de scalaire Implicatuur en de onwetendheid gevolgtrekkingen met betrekking tot de verklaring van de disjunctieve zijn beide berekend. Figuur 4 illustreert dat, wanneer het begrijpen van een Disjunctieve verklaring (S1 of S2), deelnemers beide de twee gevolgtrekkingen berekenen.

Bovendien suggereren deelnemers oog fixaties op het kleine vakje aan gesloten, vooral wanneer deze vastleggingen worden gevolgd door de gedrags reacties op die doos, ook dat de scalaire Implicatuur en de onwetendheid gevolgtrekkingen worden berekend. De twee gevolgtrekkingen moeten zijn verwerkt uiterlijk op de vroegste temporele punt wanneer deelnemers hun visuele aandacht en de vastleggingen op de kleine gesloten doos verschuiven. Deelnemers-oogbewegingen worden samengevat in Figuur 5. Zoals we in het deelvenster B zien kunnen, verhogen niet deelnemers oog-vastleggingen op de kleine-gesloten doos (doos B) tenzij de sentential connective de disjunctieve bindweefsel, of. Bovendien, deze verhoging begint neen later dan de offset van de disjunctieve connective. Dit suggereert dat de scalaire Implicatuur zowel de onwetendheid gevolgtrekkingen worden berekend voordat de verschuiving van de sentential connective, dat wil zeggen, onmiddellijk na het ontmoeten van de disjunctieve connective.

Figure 1
Figuur 1 . Een voorbeeld van de testopnamen gebruikt in de experiment. Het grijze gebied is het beeld van de test eigenlijk aan deelnemers wordt voorgelegd. De vakken van de blues, de dotted strafregels en de pixels ter aanduiding van de breedte van de elementen worden slechts ter illustratie en zijn onzichtbaar voor de deelnemers. (Aangepast uit experiment één van L. Zhan 17 met toestemming). Klik hier voor een grotere versie van dit cijfer.

Figure 2
Figuur 2 . Een voorbeeld van de test zinnen gebruikt in het experiment (herdruk van L. Zhan17 met toestemming). Klik hier voor een grotere versie van dit cijfer.

Figure 3
Figuur 3 . De hiërarchische structuur van een typische eye-tracking experiment met behulp van de visuele wereld paradigma. De audio geïllustreerd in de afbeelding zijn de Engelse vertalingen van de Mandarijn Chinees gebruikt in het experiment. Klik hier voor een grotere versie van dit cijfer.

Figure 4
Figuur 4 . Deelnemers gedrags antwoorden opgenomen in het experiment (aangepast uit experiment één van L. Zhan17 met toestemming). Klik hier voor een grotere versie van dit cijfer.

Figure 5
Figuur 5 . Deelnemers van het oog bewegingen waargenomen in de experiment. Het ontstaan en de verschuiving van de sentential connectives worden aangegeven door twee verticale stippellijnen. Een significant verschil tussen de disjunctive en de referentietoestand op bepaalde monsterpunt wordt aangegeven door het grijze gebied (p <.05, Bonferroni aangepast) (aangepast van L. Zhan17 met toestemming). Klik hier voor een grotere versie van dit cijfer.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Als u wilt een visuele wereld onderzoek, zijn er verschillende kritische stappen te volgen. Eerst, willen onderzoekers afleiden van de interpretatie van de auditorily gepresenteerd taal via deelnemers oogbewegingen in de visuele wereld. Voortaan moeten bij het ontwerpen van de lay-out van de visuele stimuli, de eigenschappen van oogbewegingen in een natuurlijke taak die potentieel deelnemers oogbewegingen beïnvloeden worden gecontroleerd. Het effect van de gesproken taal op deelnemers oogbewegingen kan vervolgens worden herkend. Tweede, akoestische signalen in de gesproken taal van voorbijgaande aard zijn, en er zijn geen akoestische handtekeningen alleen overeenkomt met bepaalde taalkundige categorie. Onderzoekers moeten correct tijd-lock deelnemers-oogbewegingen met het begin van enkele taalkundige marker vinden een objectieve en consistente manier om de grens van sommige linguïstische structuur te bepalen. Ten derde, correct toewijzen deelnemers oog rotatie rond het hoofd met hun blik van verwijzing in de visuele wereld, onderzoekers moeten voor het uitvoeren van één of meerdere punten van kalibratie, validatie en drift correctie processen. Ten vierde, de gegevens die zijn verkregen uit een studie van de visuele wereld hebben sommige eigenaardige eigenschappen, zoals de onderste en bovenste begrensd, en na autocorrelated fouten enz. Deze eigenaardige eigenschappen moeten worden beschouwd als een methode om statistisch het analyseren van de gegevens is geselecteerd.

Een visuele wereld studie bestaat uit drie basiscomponenten: visuele weergave, gesproken taal, experimentele taak. Wijzigingen kunnen worden aangebracht op elk onderdeel om te voldoen aan de specifieke doeleinden van de onderzoekers. Ten eerste, een visuele weergave is normaal gesproken een screening display beeltenis van een array van foto's. Maar het kan ook een weergave van de screening beeltenis van een matrix van gedrukte woorden32, een schematische scène30,31, of een scène van de echte wereld met echte objecten1,32. Ten tweede, de gesproken uitingen kunnen een woord36, een eenvoudige zin30,31, een semantisch complexe verklaring17,34,35of een dialoog39. Ten derde, op het gebied van de experimentele taak, deelnemers ofwel gewoon gevraagd wordt om te kijken van het visuele wereld en aandachtig luisteren naar de auditieve uitingen30,31; of zijn vereist om sommige gedrags reacties, zoals acteren uit de bewegingen door de auditieve uiting1beschreven, bepalen of de auditieve uiting is van toepassing op de visuele weergave38of het kiezen van de juiste beeld in het beeld dat de gesproken uiting gaat over17.

De visuele wereld paradigma, in vergelijking met andere psycholinguïstisch technieken, heeft een aantal unieke voordelen. Ten eerste, de visuele wereld paradigma kan worden gebruikt in een breed van bevolking, met inbegrip van degenen die niet kunnen lezen en/of die niet openlijk geven hun gedrags reacties, zoals ongeletterd kinderen37,38,39, 40 , 41 , 42, oudere volwassenen46en patiënten (bv., aphasics)47. Dit is omdat de taal prikkels worden gepresenteerd in de auditieve in plaats van in de vorm van geschreven teksten; en het taalbegrip is afgeleid uit de deelnemers impliciete automatische oogbewegingen in plaats van uit hun openlijke gedrags reacties. Ten tweede, het visuele wereld paradigma is zeer gevoelig voor fijnkorrelig manipulaties van het signaal van de toespraak. Dit paradigma kan worden gebruikt voor het bestuderen van de online verwerking van de meeste onderwerpen in taalbegrip op meerdere niveaus, zoals de fijne korrelige akoestische fonetische functies33,45,46, de eigenschappen van woorden30,31, de taalkundige structuren1,47, en de logische structuren van semantisch complexe instructies zoals concessives37, biconditionals37, Conditionals38, en disjunctions17.

De visuele wereld paradigma, in vergelijking met andere psycholinguïstisch techniek, heeft ook enkele potentiële beperkingen. Ten eerste, deelnemers interpretatie van de gesproken taal is afgeleid van hun oogbewegingen op de visuele wereld, niet vanuit de werkelijke interpretatie van de prikkels van de taal per se. voortaan de taaleigenschappen die bestudeerd kunnen worden met de visuele wereld paradigma zijn beperkt tot degenen die kunnen worden gevisualiseerd, dwz., zij een of andere manier gerelateerd moeten zijn aan de entiteiten of de gebeurtenissen in de visuele wereld. Ten tweede, het paradigma van de visuele wereld gebruikt is normaal beperkter dan de werkelijke visuele wereld, met een beperkt aantal afgebeeld referenten en een beperkt aantal mogelijke acties. Deze zogenaamde gesloten-reeks probleem48 verzekeringsclaims taak-specifieke strategieën die de waargenomen taalverwerking niet buiten de specifieke situaties in de experiment gemaakt generaliseren doet. Voortaan, het paradigma mogelijk niet gevoelig voor kenmerken van taalkundige kennis en ervaring liggen buiten de gesloten-set die op een bepaalde proef zijn vastgesteld.

De visuele wereld paradigma verkent in wezen de integratie van de informatie uit de visuele domein en de informatie uit het auditieve domein. Theoretisch, alle informatie die kan worden verwerkt door de twee sensationele domeinen kan potentieel bestudeerd worden met behulp van dit paradigma. Bijvoorbeeld, kunnen de visuele wereld virtuele realiteit of dynamische video's zijn. De auditieve input kan is niet noodzakelijkerwijs taal, en een ander formaat, zoals muziek en geluid uit de natuurlijke wereld, enz. Bovendien, dit paradigma kan verder worden uitgebreid om te verkennen van de integratie van informatie uit andere domeinen, in plaats van het domein van visuele en het auditieve domein. Bijvoorbeeld, kunnen onderzoekers deze techniek gebruiken om te zien hoe de deelnemers vastleggingen in de visuele wereld worden beïnvloed door verschillende geuren, verschillende aanrakingen, enz.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

De auteur verklaart dat hij geen concurrerende financiële belangen heeft.

Acknowledgments

Dit onderzoek werd gesteund door Science Foundation van Peking taal en culturele universiteit onder de fundamentele middelen voor onderzoek voor de centrale universiteiten (goedkeuring nummer 15YJ050003).

Materials

Name Company Catalog Number Comments
Pixelmator Pixelmator Team http://www.pixelmator.com/pro/ image editing app
Praat Open Sourse http://www.fon.hum.uva.nl/praat/ Sound analyses and editting software
Eyelink 1000plus SR-Research, Inc https://www.sr-research.com/products/eyelink-1000-plus/ remote infrared eye tracker 
Experimental Builder SR-Research, Inc https://www.sr-research.com/experiment-builder/ eye tracker software 
Data Viewer SR-Research, Inc https://www.sr-research.com/data-viewer/ eye tracker software 
R Open Sourse https://www.r-project.org free software environment for statistical computing and graphics

DOWNLOAD MATERIALS LIST

References

  1. Tanenhaus, M. K., Spivey-Knowlton, M. J., Eberhard, K. M., Sedivy, J. C. Integration of visual and linguistic information in spoken language comprehension. Science. 268, (5217), 1632-1634 (1995).
  2. Cooper, R. M. The control of eye fixation by the meaning of spoken language: A new methodology for the real-time investigation of speech perception, memory, and language processing. Cognitive Psychology. 6, (1), 84-107 (1974).
  3. Salverda, A. P., Tanenhaus, M. K. Research methods in psycholinguistics and the neurobiology of language: A practical guide. de Groot, A. M. B., Hagoort, P. Wiley. (2017).
  4. Huettig, F., Rommers, J., Meyer, A. S. Using the visual world paradigm to study language processing: A review and critical evaluation. Acta Psychologica. 137, (2), 151-171 (2011).
  5. Meyer, A. S., Sleiderink, A. M., Levelt, W. J. M. Viewing and naming objects: Eye movements during noun phrase production. Cognition. 66, (2), B25-B33 (1998).
  6. Griffin, Z. M., Bock, K. What the eyes say about speaking. Psychological Science. 11, (4), 274-279 (2000).
  7. Young, L. R., Sheena, D. Survey of eye movement recording methods. Behavior Research Methods & Instrumentation. 7, (5), 397-429 (1975).
  8. Conklin, K., Pellicer-Sánchez, A., Carrol, G. Eye-tracking: A guide for applied linguistics research. Cambridge University Press. (2018).
  9. Duchowski, A. Eye tracking methodology: Theory and practice. 2, Springer. (2007).
  10. Baayen, R. H., Davidson, D. J., Bates, D. M. Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language. 59, (4), 390-412 (2008).
  11. Barr, D. J. Analyzing 'visual world' eyetracking data using multilevel logistic regression. Journal of Memory and Language. 59, (4), 457-474 (2008).
  12. Nixon, J. S., van Rij, J., Mok, P., Baayen, R. H., Chen, Y. The temporal dynamics of perceptual uncertainty: eye movement evidence from Cantonese segment and tone perception. Journal of Memory and Language. 90, 103-125 (2016).
  13. Bolker, B. M., et al. Generalized linear mixed models: A practical guide for ecology and evolution. Trends in Ecology and Evolution. 24, (3), 127-135 (2009).
  14. Mirman, D., Dixon, J. A., Magnuson, J. S. Statistical and computational models of the visual world paradigm: Growth curves and individual differences. Journal of Memory and Language. 59, (4), 475-494 (2008).
  15. Baayen, H., Vasishth, S., Kliegl, R., Bates, D. The cave of shadows: Addressing the human factor with generalized additive mixed models. Journal of Memory and Language. 94, 206-234 (2017).
  16. Baayen, R. H., van Rij, J., de Cat, C., Wood, S. Mixed-Effects Regression Models in Linguistics. Speelman, D., Heylen, K., Geeraerts, D. 4, Ch 4 49-69 (2018).
  17. Zhan, L. Scalar and ignorance inferences are both computed immediately upon encountering the sentential connective: The online processing of sentences with disjunction using the visual world paradigm. Frontiers in Psychology. 9, (2018).
  18. Maris, E., Oostenveld, R. Nonparametric statistical testing of EEG- and MEG-data. Journal of Neuroscience Methods. 164, (1), 177-190 (2007).
  19. Barr, D. J., Jackson, L., Phillips, I. Using a voice to put a name to a face: The psycholinguistics of proper name comprehension. Journal of Experimental Psychology-General. 143, (1), 404-413 (2014).
  20. van Gompel, R. P. G., Fischer, M. H., Murray, W. S., Hill, R. L. Eye movements: A window on mind and brain. Elsevier. Ch. 21 471-486 (2007).
  21. Parkhurst, D., Law, K., Niebur, E. Modeling the role of salience in the allocation of overt visual attention. Vision Research. 42, (1), 107-123 (2002).
  22. Grice, H. P. Vol. 3 Speech Acts. Syntax and semantics. Cole, P., Morgan, J. L. Academic Press. 41-58 (1975).
  23. Sauerland, U. Scalar implicatures in complex sentences. Linguistics and Philosophy. 27, (3), 367-391 (2004).
  24. Chierchia, G. Scalar implicatures and their interface with grammar. Annual Review of Linguistics. 3, (1), 245-264 (2017).
  25. Fox, D. Presupposition and Implicature in Compositional Semantics. Sauerland, U., Stateva, P. Palgrave Macmillan. Ch. 4 71-120 (2007).
  26. Meyer, M. C. Ignorance and grammar. Massachusetts Institute Of Technology. Unpublished PhD Thesis (2013).
  27. SR Research Ltd. SR Research Experiment Builder User Manual (Version 2.1.140). Ottawa, Canada. (2017).
  28. SR Research Ltd. EyeLink® 1000 Plus Technical Specifications. Mississauga, Canada. (2017).
  29. SR Research Ltd. EyeLink-1000-Plus-Brochure. Mississauga, Canada. (2017).
  30. SR Research Ltd. EyeLink® 1000 Plus User Manual (Version 1.0.12). Ottawa, Canada. (2017).
  31. SR Research Ltd. EyeLink® Data Viewer User’s Manual (Version 3.1.97). Ottawa, Canada. (2017).
  32. McQueen, J. M., Viebahn, M. C. Tracking recognition of spoken words by tracking looks to printed words. The Quarterly Journal of Experimental Psychology. 60, (5), 661-671 (2007).
  33. Altmann, G. T. M., Kamide, Y. Incremental interpretation at verbs: restricting the domain of subsequent reference. Cognition. 73, (3), 247-264 (1999).
  34. Altmann, G. T. M., Kamide, Y. The real-time mediation of visual attention by language and world knowledge: Linking anticipatory (and other) eye movements to linguistic processing. Journal of Memory and Language. 57, (4), 502-518 (2007).
  35. Snedeker, J., Trueswell, J. C. The developing constraints on parsing decisions: The role of lexical-biases and referential scenes in child and adult sentence processing. Cognitive Psychology. 49, (3), 238-299 (2004).
  36. Allopenna, P. D., Magnuson, J. S., Tanenhaus, M. K. Tracking the time course of spoken word recognition using eye movements: Evidence for continuous mapping models. Journal of Memory and Language. 38, (4), 419-439 (1998).
  37. Zhan, L., Crain, S., Zhou, P. The online processing of only if and even if conditional statements: Implications for mental models. Journal of Cognitive Psychology. 27, (3), 367-379 (2015).
  38. Zhan, L., Zhou, P., Crain, S. Using the visual-world paradigm to explore the meaning of conditionals in natural language. Language, Cognition and Neuroscience. 33, (8), 1049-1062 (2018).
  39. Brown-Schmidt, S., Tanenhaus, M. K. Real-time investigation of referential domains in unscripted conversation: A targeted language game approach. Cognitive Science. 32, (4), 643-684 (2008).
  40. Fernald, A., Pinto, J. P., Swingley, D., Weinberg, A., McRoberts, G. W. Rapid gains in speed of verbal processing by infants in the 2nd year. Psychological Science. 9, (3), 228-231 (1998).
  41. Trueswell, J. C., Sekerina, I., Hill, N. M., Logrip, M. L. The kindergarten-path effect: studying on-line sentence processing in young children. Cognition. 73, (2), 89-134 (1999).
  42. Zhou, P., Su, Y., Crain, S., Gao, L. Q., Zhan, L. Children's use of phonological information in ambiguity resolution: a view from Mandarin Chinese. Journal of Child Language. 39, (4), 687-730 (2012).
  43. Zhou, P., Crain, S., Zhan, L. Grammatical aspect and event recognition in children's online sentence comprehension. Cognition. 133, (1), 262-276 (2014).
  44. Zhou, P., Crain, S., Zhan, L. Sometimes children are as good as adults: The pragmatic use of prosody in children's on-line sentence processing. Journal of Memory and Language. 67, (1), 149-164 (2012).
  45. Moscati, V., Zhan, L., Zhou, P. Children's on-line processing of epistemic modals. Journal of Child Language. 44, (5), 1025-1040 (2017).
  46. Helfer, K. S., Staub, A. Competing speech perception in older and younger adults: Behavioral and eye-movement evidence. Ear and Hearing. 35, (2), 161-170 (2014).
  47. Dickey, M. W., Choy, J. W. J., Thompson, C. K. Real-time comprehension of wh-movement in aphasia: Evidence from eyetracking while listening. Brain and Language. 100, (1), 1-22 (2007).
  48. Magnuson, J. S., Nusbaum, H. C. Acoustic differences, listener expectations, and the perceptual accommodation of talker variability. Journal of Experimental Psychology-Human Perception and Performance. 33, (2), 391-409 (2007).
  49. Reinisch, E., Jesse, A., McQueen, J. M. Early use of phonetic information in spoken word recognition: Lexical stress drives eye movements immediately. Quarterly Journal of Experimental Psychology. 63, (4), 772-783 (2010).
  50. Chambers, C. G., Tanenhaus, M. K., Magnuson, J. S. Actions and affordances in syntactic ambiguity resolution. Journal of Experimental Psychology-Learning Memory and Cognition. 30, (3), 687-696 (2004).
  51. Tanenhaus, M. K., Trueswell, J. C. Approaches to Studying World-Situated Language Use: Bridging the Language-as-Product and Language-as-Action Traditions. Trueswell, J. C., Tanenhaus, M. K. The MIT Press. (2005).

Comments

0 Comments


    Post a Question / Comment / Request

    You must be signed in to post a comment. Please or create an account.

    Usage Statistics