-1::1
Simple Hit Counter
Skip to content

Products

Solutions

×
×
Sign In

DE

EN - EnglishCN - 简体中文DE - DeutschES - EspañolKR - 한국어IT - ItalianoFR - FrançaisPT - Português do BrasilPL - PolskiHE - עִבְרִיתRU - РусскийJA - 日本語TR - TürkçeAR - العربية
Sign In Start Free Trial

RESEARCH

JoVE Journal

Peer reviewed scientific video journal

Behavior
Biochemistry
Bioengineering
Biology
Cancer Research
Chemistry
Developmental Biology
View All
JoVE Encyclopedia of Experiments

Video encyclopedia of advanced research methods

Biological Techniques
Biology
Cancer Research
Immunology
Neuroscience
Microbiology
JoVE Visualize

Visualizing science through experiment videos

EDUCATION

JoVE Core

Video textbooks for undergraduate courses

Analytical Chemistry
Anatomy and Physiology
Biology
Cell Biology
Chemistry
Civil Engineering
Electrical Engineering
View All
JoVE Science Education

Visual demonstrations of key scientific experiments

Advanced Biology
Basic Biology
Chemistry
View All
JoVE Lab Manual

Videos of experiments for undergraduate lab courses

Biology
Chemistry

BUSINESS

JoVE Business

Video textbooks for business education

Accounting
Finance
Macroeconomics
Marketing
Microeconomics

OTHERS

JoVE Quiz

Interactive video based quizzes for formative assessments

Authors

Teaching Faculty

Librarians

K12 Schools

Products

RESEARCH

JoVE Journal

Peer reviewed scientific video journal

JoVE Encyclopedia of Experiments

Video encyclopedia of advanced research methods

JoVE Visualize

Visualizing science through experiment videos

EDUCATION

JoVE Core

Video textbooks for undergraduates

JoVE Science Education

Visual demonstrations of key scientific experiments

JoVE Lab Manual

Videos of experiments for undergraduate lab courses

BUSINESS

JoVE Business

Video textbooks for business education

OTHERS

JoVE Quiz

Interactive video based quizzes for formative assessments

Solutions

Authors
Teaching Faculty
Librarians
K12 Schools

Language

German

EN

English

CN

简体中文

DE

Deutsch

ES

Español

KR

한국어

IT

Italiano

FR

Français

PT

Português do Brasil

PL

Polski

HE

עִבְרִית

RU

Русский

JA

日本語

TR

Türkçe

AR

العربية

    Menu

    JoVE Journal

    Behavior

    Biochemistry

    Bioengineering

    Biology

    Cancer Research

    Chemistry

    Developmental Biology

    Engineering

    Environment

    Genetics

    Immunology and Infection

    Medicine

    Neuroscience

    Menu

    JoVE Encyclopedia of Experiments

    Biological Techniques

    Biology

    Cancer Research

    Immunology

    Neuroscience

    Microbiology

    Menu

    JoVE Core

    Analytical Chemistry

    Anatomy and Physiology

    Biology

    Cell Biology

    Chemistry

    Civil Engineering

    Electrical Engineering

    Introduction to Psychology

    Mechanical Engineering

    Medical-Surgical Nursing

    View All

    Menu

    JoVE Science Education

    Advanced Biology

    Basic Biology

    Chemistry

    Clinical Skills

    Engineering

    Environmental Sciences

    Physics

    Psychology

    View All

    Menu

    JoVE Lab Manual

    Biology

    Chemistry

    Menu

    JoVE Business

    Accounting

    Finance

    Macroeconomics

    Marketing

    Microeconomics

Start Free Trial
Loading...
Home
JoVE Journal
Behavior
Verwendung von Augenbewegungen aufgezeichnet in der visuellen Welt Paradigma, die Online-Verarbei...
Verwendung von Augenbewegungen aufgezeichnet in der visuellen Welt Paradigma, die Online-Verarbei...
JoVE Journal
Behavior
A subscription to JoVE is required to view this content.  Sign in or start your free trial.
JoVE Journal Behavior
Using Eye Movements Recorded in the Visual World Paradigm to Explore the Online Processing of Spoken Language

Verwendung von Augenbewegungen aufgezeichnet in der visuellen Welt Paradigma, die Online-Verarbeitung von gesprochener Sprache zu erkunden

Full Text
10,379 Views
09:27 min
October 13, 2018

DOI: 10.3791/58086-v

Likan Zhan1

1Institute for Speech Pathology and the Brain Science, School of Communication Science,Beijing Language and Culture University

AI Banner

Please note that some of the translations on this page are AI generated. Click here for the English version.

Summary

Die visuelle Welt Paradigma überwacht Teilnehmer Augenbewegungen im visuellen Arbeitsbereich anhören oder eine gesprochene Sprache. Dieses Paradigma kann verwendet werden, um die Online-Verarbeitung einer breiten Palette von Psycholinguistische Fragen, einschließlich semantisch komplexe Anweisungen, wie z. B. disjunktive Aussagen zu untersuchen.

Transcript

Diese Methode kann helfen, wichtige Fragen bei der Online-Verarbeitung von gesprochener Sprache zu beantworten, einschließlich semantisch komplexer Sätze, wie Zwierzwischenungen und Conditionals. Der Hauptvorteil dieser Technik ist, dass sie an einer Vielzahl von Populationen durchgeführt werden kann, um die meisten Themen in Bereichen der Sprachverarbeitung zu studieren. Demonstriert wird das Verfahren von Xu Jing, einem Postgraduiertenstudenten.

Cao Yifan, Wang Meng, Yang Xiaotong, Zhan Min und Zhou Xuehan sind die Studenten meiner Forschungsgruppe. Um die visuellen Reize vorzubereiten, laden Sie 60 urheberrechtlich geschützte ClipArt-Bilder von Tieren aus dem Internet herunter und öffnen Sie die Bilder in einem entsprechenden Bildeditor. Klicken Sie auf Extras, und verwenden Sie die Schnellauswahl, um den Hintergrund aus jedem Bild auszuwählen und zu löschen.

Klicken Sie auf Bild und Bildgröße, um die Größe der Bilder auf 120 x 120 Pixel zu ändern und eine große offene 320 x 240 Pixel-Box, eine kleine geschlossene 160 x 160 Pixel-Box und zwei kleine, offene 160 x 240 Pixel-Boxen zu zeichnen. Öffnen Sie eine neue Datei, um eine Vorlage von 1, 024 x 768 Pixeln für das erste Testbild zu erstellen, und ziehen Sie die Felder an die angegebenen Positionen. Ziehen Sie zwei ClipArt-Bilder in die große offene Box und jeweils eines der gleichen beiden Bilder in die beiden kleinen offenen Boxen.

Erstellen Sie dann 59 weitere Testbilder, wie gerade gezeigt wurde, wobei jedes Tierbild zweimal pro Testbild verwendet wird, wodurch die räumlichen Positionen der vier Felder zwischen den Bildern ausgeglichen werden. Zur Vorbereitung der Sprachreize können Sie vier Testsätze, die jedem Testbild entsprechen, in der Muttersprache der Teilnehmer für insgesamt 240 Testsätze zeichnen, wobei mindestens drei der vier Sätze und jeweils einer der Formulare dargestellt sind. Rekrutieren Sie eine Muttersprachlerin, um vier Beispielaussagen sowie Audio für alle Tiere aufzunehmen, die im Experiment verwendet werden.

Teilen Sie die 240 Testsätze in vier Gruppen auf, wobei jede Gruppe 15 Konjunktivaussagen, 15 disjunktive Aussagen, 15 aber Aussagen und 15 Füllsätze enthält. Speichern Sie dann alle wichtigen Informationen zu den Testreizen in einer durch Tabeinzeichen getrennte Textdatei, wobei jede Zeile jeder der 240 Versuche entspricht. Um die Experimentsequenz zu erstellen, öffnen Sie den Experiment-Builder, und erstellen Sie ein neues Projekt.

Ziehen Sie ein Bildschirmobjekt in den Arbeitsbereich, und benennen Sie die Arbeitsbereichsanweisung um. Klicken Sie auf Multiline-Textressource einfügen, und doppelklicken Sie, um die Blocksequenz zu öffnen, um die Blocksequenz zu erstellen. Ziehen Sie einen EI-Kamera-Setup-Knoten in die Blocksequenz, um einen Kamera-Setup-Bildschirm auf dem EyeLink-Host-PC aufzuführen, um die Kalibrierung und Validierung der Kameraeinrichtung zu erleichtern.

Klicken Sie im Eigenschaftenbedienfeld auf das Feld Kalibriertyp, und wählen Sie HV5 aus der Dropdown-Liste aus. Um die Testsequenz zu erstellen, ziehen Sie einen Bildschirmknoten in die Testsequenz und benennen Sie ihn Animal_1_Image um. Ziehen Sie einen Play Sound-Knoten in die Testsequenz, und benennen Sie ihn Animal_1_Audio um.

Ziehen Sie einen Timer-Knoten in die Testsequenz, und benennen Sie ihn Animal_1_Audio_Length um. Ziehen und Umbenennen zusätzlicher Bildschirm-, Wiedergabe- und Timerknoten in die Testsequenz fortsetzen, bis für jedes ClipArt-Bild drei Knoten erstellt wurden. Ziehen Sie dann einen Drift Correct-Knoten in die Testsequenz, um die Driftkorrektur einzuführen.

Um die Aufnahmesequenz zu erstellen, ziehen Sie einen neuen Bildschirmknoten in die Datensatzsequenz. Benennen Sie den Knoten Test_Image um. Doppelklicken Sie auf den Knoten Bildschirm anzeigen, um den Bildschirmgenerator zu öffnen, klicken Sie auf den Bereich "Rechteckbereich einfügen", und zeichnen Sie vier rechteckige Bereiche, die von Interesse sind.

Ziehen Sie einen Timerknoten in den Arbeitsbereich, benennen Sie den Knoten Pause um, und ändern Sie die Duration-Eigenschaft in 500 Millisekunden. Ziehen Sie einen Play Sound-Knoten in den Arbeitsbereich, und benennen Sie den Knoten Test_Audio um, und ziehen Sie einen Timer-Knoten in den Arbeitsbereich, und benennen Sie ihn Test_Audio_Length um. Fügen Sie dann einen Tastaturknoten zum Arbeitsbereich hinzu, benennen Sie den Knoten Behavioral Responses um, und ändern Sie die Acceptable Keys-Eigenschaft in Up, Down, Right, Left.

Um ein Experiment durchzuführen, starten Sie das System auf dem Host-PC, um die Hostanwendung der Kamera zu starten, und klicken Sie auf die ausführbare Version des experimentellen Projekts auf dem Display-PC. Geben Sie den Namen des Teilnehmers ein, und klicken Sie auf Bedingungswert auswählen, um eine Gruppe aus dem Eingabeaufforderungsfenster auszuwählen. Platzieren Sie einen kleinen Zielaufkleber auf der Stirn des Teilnehmers, um die Kopfposition zu verfolgen, auch wenn das Schülerbild verloren geht, z. B. bei Blinken oder plötzlichen Bewegungen. Setzen Sie den Teilnehmer ca. 60 Zentimeter von einem 21-Zoll 4:3-Farbmonitor mit einer Auflösung von 1, 024 x 769 Pixeln, wofür 27 Pixel einem Grad Winkel entsprechen.

Passen Sie die Höhe des Display-PC-Monitors an, um sicherzustellen, dass der Teilnehmer, wenn er geradeaus schaut, vertikal in die Mitte bis zu den oberen 75 % des Monitors schaut, und dann den Fokusarm auf der Schreibtischhalterung dreht, um das Augenbild in den Fokus zu rücken. Klicken Sie als Nächstes auf den Host-PC kalibrieren und bitten Sie den Teilnehmer, sich in zufälliger Folge ohne verdeckte Verhaltensreaktionen auf ein Raster von fünf Fixierungszielen zu fixieren, um die Augenbewegungen des Teilnehmers dem Blick des Betrachters in der visuellen Welt zuzuordnen. Klicken Sie auf Überprüfen, und bitten Sie den Teilnehmer, sich auf dasselbe Raster von Fixierungszielen zu fixieren, um die Kalibrierungsergebnisse zu validieren.

Führen Sie eine Drift-Prüfung durch, indem Sie den Teilnehmer bitten, die Leertaste auf der Tastatur zu drücken, während Sie den schwarzen Punkt in der Mitte des Bildschirms fixieren. Dann präsentieren Sie die visuellen Reize über den Display-PC-Monitor, während Sie die akustischen Reize über ein Paar externer Lautsprecher links und rechts des Monitors abspielen. Für Datencodierung und -analyse öffnen Sie den Datenbetrachter und klicken Sie auf Datei, Datei importieren und mehrere EyeLink-Datendateien importieren, um alle aufgezeichneten Eyetracker-Dateien zu importieren.

Speichern Sie die Dateien in einer einzelnen evs-Datei, öffnen Sie dann die evs-Datei, und klicken Sie auf Analyse, Berichte und Beispielbericht, um die Rohbeispieldaten ohne Aggregation zu exportieren. Die richtige Antwort auf eine Konjunktivaussage ist das große offene Feld, während die richtige Antwort auf eine Aber-Anweisung das kleine offene Feld ist, das das zuerst erwähnte Tier in der Anweisung enthält. Entscheidend ist, welches Feld für die Konjunktivanweisungen ausgewählt wird, hängt davon ab, wie eine bedingte Anweisung verarbeitet wird.

Beispielsweise wird das kleine geschlossene Feld nur ausgewählt, wenn die skalare Implikatierung und die Unwissenheitsinschlüsse berechnet werden, was sich aus dem Verständnis einer disjunktiven Anweisung ergibt. Wie im Panel dargestellt, nimmt die Augenfixierung auf dem kleinen geschlossenen Kasten nicht zu, es sei denn, das sententiale Bindemittel ist das disjunktive Bindemittel oder mit der Erhöhung, die spätestens mit dem Offset des disjunktiven Bindeivs beginnt. Das Visual World Paradigm ist eine vielseitige Eye-Tracking-Technik, um das Online-Verständnis der gesprochenen Sprache von ihren Augenbewegungen in der realen Welt ableiten zu können.

Bei der Rekrutierung erinnern Sie sich, dass sie normale oder korrekte normale Sehfähigkeit und eine normale Hörfähigkeit haben sollten. Um eine förderfähige Studie in der realen Welt zu entwerfen, sollten andere Faktoren, die die Augenbewegungen der Teilnehmer beeinflussen könnten, kontrolliert oder ausgeschlossen werden. Bei der statistischen Analyse der Ergebnisse sollten Probleme, die sich aus begrenzten Antworten ergeben können, alle automatischen Korrelationen oder automatischen Vergleiche berücksichtigt werden.

Explore More Videos

Verhalten Ausgabe 140 Eye-tracking-Technik visuelle Welt Paradigma gesprochene Sprache Online-Verarbeitung komplexe Aussage generalisiert linearen gemischten Modell Binomialverteilung familywise Fehler Bonferroni-Anpassung

Related Videos

Visualeyes: ein modulares Softwaresystem für oculomotorius Experimentieren

10:41

Visualeyes: ein modulares Softwaresystem für oculomotorius Experimentieren

Related Videos

12.9K Views

Verwenden von Augenbewegungen zur Bewertung der kognitiven Prozesse, die an der Textverständigung beteiligt sind

06:49

Verwenden von Augenbewegungen zur Bewertung der kognitiven Prozesse, die an der Textverständigung beteiligt sind

Related Videos

27.7K Views

Eyetracking während visuell liegt Sprachverständnis: Flexibilität und Einschränkungen bei der Aufdeckung visuellen Kontext Effekte

07:36

Eyetracking während visuell liegt Sprachverständnis: Flexibilität und Einschränkungen bei der Aufdeckung visuellen Kontext Effekte

Related Videos

16.1K Views

Eye-Tracking, Verständnis und okulomotorischen-basierten Regressive Augenbewegungen beim Lesen zu unterscheiden

05:54

Eye-Tracking, Verständnis und okulomotorischen-basierten Regressive Augenbewegungen beim Lesen zu unterscheiden

Related Videos

6.4K Views

Mit Hilfe der visuellen Welt Paradigma Satz Verständnis in Mandarin-sprachigen Kindern mit Autismus zu studieren

06:15

Mit Hilfe der visuellen Welt Paradigma Satz Verständnis in Mandarin-sprachigen Kindern mit Autismus zu studieren

Related Videos

7.9K Views

Erforschen der Sensibilität für visuelle Sprache durch Eye Tracking und das Preferential Looking Paradigm

06:07

Erforschen der Sensibilität für visuelle Sprache durch Eye Tracking und das Preferential Looking Paradigm

Related Videos

8.7K Views

Untersuchen der syntaktischen Online-Verarbeitung gesprochener komplexer Sätze auf Chinesisch mithilfe von Dual-Modal Interferenzaufgaben

08:32

Untersuchen der syntaktischen Online-Verarbeitung gesprochener komplexer Sätze auf Chinesisch mithilfe von Dual-Modal Interferenzaufgaben

Related Videos

5.8K Views

Einsamkeit assuaged: Eye-Tracking ein Publikum beobachten Barrage Videos

06:45

Einsamkeit assuaged: Eye-Tracking ein Publikum beobachten Barrage Videos

Related Videos

4.4K Views

Interaktion zwischen phonologischen und semantischen Prozessen in der visuellen Worterkennung mittels Elektrophysiologie

05:38

Interaktion zwischen phonologischen und semantischen Prozessen in der visuellen Worterkennung mittels Elektrophysiologie

Related Videos

2.6K Views

Augenbewegungen in der visuellen Dauerwahrnehmung: Entwirrung von Reizen aus der Zeit in vorentscheidenden Prozessen

09:27

Augenbewegungen in der visuellen Dauerwahrnehmung: Entwirrung von Reizen aus der Zeit in vorentscheidenden Prozessen

Related Videos

1.5K Views

JoVE logo
Contact Us Recommend to Library
Research
  • JoVE Journal
  • JoVE Encyclopedia of Experiments
  • JoVE Visualize
Business
  • JoVE Business
Education
  • JoVE Core
  • JoVE Science Education
  • JoVE Lab Manual
  • JoVE Quizzes
Solutions
  • Authors
  • Teaching Faculty
  • Librarians
  • K12 Schools
About JoVE
  • Overview
  • Leadership
Others
  • JoVE Newsletters
  • JoVE Help Center
  • Blogs
  • Site Maps
Contact Us Recommend to Library
JoVE logo

Copyright © 2025 MyJoVE Corporation. All rights reserved

Privacy Terms of Use Policies
WeChat QR code