-1::1
Simple Hit Counter
Skip to content

Products

Solutions

×
×
Sign In

PT

EN - EnglishCN - 简体中文DE - DeutschES - EspañolKR - 한국어IT - ItalianoFR - FrançaisPT - Português do BrasilPL - PolskiHE - עִבְרִיתRU - РусскийJA - 日本語TR - TürkçeAR - العربية
Sign In Start Free Trial

RESEARCH

JoVE Journal

Peer reviewed scientific video journal

Behavior
Biochemistry
Bioengineering
Biology
Cancer Research
Chemistry
Developmental Biology
View All
JoVE Encyclopedia of Experiments

Video encyclopedia of advanced research methods

Biological Techniques
Biology
Cancer Research
Immunology
Neuroscience
Microbiology
JoVE Visualize

Visualizing science through experiment videos

EDUCATION

JoVE Core

Video textbooks for undergraduate courses

Analytical Chemistry
Anatomy and Physiology
Biology
Cell Biology
Chemistry
Civil Engineering
Electrical Engineering
View All
JoVE Science Education

Visual demonstrations of key scientific experiments

Advanced Biology
Basic Biology
Chemistry
View All
JoVE Lab Manual

Videos of experiments for undergraduate lab courses

Biology
Chemistry

BUSINESS

JoVE Business

Video textbooks for business education

Accounting
Finance
Macroeconomics
Marketing
Microeconomics

OTHERS

JoVE Quiz

Interactive video based quizzes for formative assessments

Authors

Teaching Faculty

Librarians

K12 Schools

Products

RESEARCH

JoVE Journal

Peer reviewed scientific video journal

JoVE Encyclopedia of Experiments

Video encyclopedia of advanced research methods

JoVE Visualize

Visualizing science through experiment videos

EDUCATION

JoVE Core

Video textbooks for undergraduates

JoVE Science Education

Visual demonstrations of key scientific experiments

JoVE Lab Manual

Videos of experiments for undergraduate lab courses

BUSINESS

JoVE Business

Video textbooks for business education

OTHERS

JoVE Quiz

Interactive video based quizzes for formative assessments

Solutions

Authors
Teaching Faculty
Librarians
K12 Schools

Language

pt_BR

EN

English

CN

简体中文

DE

Deutsch

ES

Español

KR

한국어

IT

Italiano

FR

Français

PT

Português do Brasil

PL

Polski

HE

עִבְרִית

RU

Русский

JA

日本語

TR

Türkçe

AR

العربية

    Menu

    JoVE Journal

    Behavior

    Biochemistry

    Bioengineering

    Biology

    Cancer Research

    Chemistry

    Developmental Biology

    Engineering

    Environment

    Genetics

    Immunology and Infection

    Medicine

    Neuroscience

    Menu

    JoVE Encyclopedia of Experiments

    Biological Techniques

    Biology

    Cancer Research

    Immunology

    Neuroscience

    Microbiology

    Menu

    JoVE Core

    Analytical Chemistry

    Anatomy and Physiology

    Biology

    Cell Biology

    Chemistry

    Civil Engineering

    Electrical Engineering

    Introduction to Psychology

    Mechanical Engineering

    Medical-Surgical Nursing

    View All

    Menu

    JoVE Science Education

    Advanced Biology

    Basic Biology

    Chemistry

    Clinical Skills

    Engineering

    Environmental Sciences

    Physics

    Psychology

    View All

    Menu

    JoVE Lab Manual

    Biology

    Chemistry

    Menu

    JoVE Business

    Accounting

    Finance

    Macroeconomics

    Marketing

    Microeconomics

Start Free Trial
Loading...
Home
JoVE Journal
Behavior
Usando movimentos oculares gravados no paradigma Visual do mundo para explorar o processamento on...
Usando movimentos oculares gravados no paradigma Visual do mundo para explorar o processamento on...
JoVE Journal
Behavior
A subscription to JoVE is required to view this content.  Sign in or start your free trial.
JoVE Journal Behavior
Using Eye Movements Recorded in the Visual World Paradigm to Explore the Online Processing of Spoken Language

Usando movimentos oculares gravados no paradigma Visual do mundo para explorar o processamento on-line de língua falada

Full Text
10,379 Views
09:27 min
October 13, 2018

DOI: 10.3791/58086-v

Likan Zhan1

1Institute for Speech Pathology and the Brain Science, School of Communication Science,Beijing Language and Culture University

AI Banner

Please note that some of the translations on this page are AI generated. Click here for the English version.

Summary

O paradigma do mundo visual monitora os movimentos oculares dos participantes na área de trabalho visual, como eles estão ouvindo ou falando uma língua falada. Este paradigma pode ser usada para investigar o processamento on-line de uma vasta gama de questões linguísticas, incluindo instruções semanticamente complexas, tais como declarações disjuntiva.

Transcript

Esse método pode ajudar a responder a perguntas-chave no processamento on-line da língua falada, incluindo frases semanticamente complexas, como disjunções e condicionals. A principal vantagem dessa técnica é que ela pode ser realizada em uma ampla gama de populações para estudar a maioria dos temas em áreas de processamento linguístico. Demonstrando o procedimento será Xu Jing, um estudante de pós-graduação.

Cao Yifan, Wang Meng, Yang Xiaotong, Zhan Min e Zhou Xuehan são os alunos do meu grupo de pesquisa. Para preparar os estímulos visuais, baixe 60 imagens de arte de clipe gratuitos de direitos autorais de animais da Internet e abra as imagens em um editor de imagens apropriado. Clique em Ferramentas e use a seleção rápida para selecionar e excluir o plano de fundo de cada imagem.

Clique em Imagem e Tamanho da Imagem para redimensionar as imagens para 120 por 120 pixels e desenhar uma grande caixa aberta de 320 x 240 pixels, uma pequena caixa fechada de 160 x 160 pixels, e duas pequenas caixas abertas de 160 x 240 pixels. Abra um novo arquivo para criar um modelo de 1.024 por 768 pixels para a primeira imagem de teste e arraste as caixas para os locais indicados. Arraste duas imagens de arte de clipe para a grande caixa aberta e uma de cada uma das mesmas duas imagens nas duas pequenas caixas abertas.

Em seguida, crie mais 59 imagens de teste como apenas demonstrado com cada imagem animal sendo usada duas vezes por imagem de teste, contrabalanciando os locais espaciais das quatro caixas entre as imagens. Para preparar os estímulos da língua falada, projete quatro frases de teste correspondentes a cada imagem de teste na língua nativa dos participantes para um total de 240 frases de teste a serem registradas, com pelo menos três das quatro frases e uma de cada uma das formas como ilustrado. Recrute uma falante nativa feminina para gravar quatro depoimentos de exemplo, bem como áudio para todos os animais que estão sendo usados no experimento.

Divida as 240 sentenças de teste em quatro grupos, com cada grupo contendo 15 declarações conjuntivas, 15 declarações disjuntivas, 15 depoimentos, e 15 frases de preenchimento. Em seguida, salve todas as informações importantes sobre os estímulos de teste em um arquivo de texto delimitado por guia, com cada linha correspondente a cada uma das 240 ensaios. Para construir a sequência de experimentos, abra o construtor de experimentos e crie um novo projeto.

Arraste um objeto de tela de exibição para o espaço de trabalho e renomeie a Instrução do espaço de trabalho. Clique em Inserir recurso de texto de várias linhas e clique duas vezes para abrir a sequência de blocos para construir a sequência de blocos. Arraste um nó de configuração da câmera EI para a sequência de blocos para trazer uma tela de configuração da câmera no EYELink host PC para facilitar a calibração e validação da configuração da configuração da câmera.

Clique no campo Tipo de calibração no painel de propriedades e selecione HV5 na lista de queda. Para construir a sequência de ensaio, arraste um nó display Screen para a sequência de ensaio e renomeie-a Animal_1_Image. Arraste um nó De Som de Reprodução para a sequência de ensaio e renomeie-o Animal_1_Audio.

Arraste um nó timer para a sequência de ensaio e renomeie-o Animal_1_Audio_Length. Continue arrastando e renomeando os nódulos adicionais Display Screen, Play Sound e Timer para a sequência de ensaio até que três nodes tenham sido criados para cada imagem de arte de clipe. Em seguida, arraste um nó Drift Correct para a sequência de ensaio para introduzir a correção de deriva.

Para construir a sequência de gravação, arraste um novo nó display Screen para a sequência de gravação. Renomeie o nó Test_Image. Clique duas vezes no nó Display Screen para abrir o construtor de tela, clique na Região de Área de Interesse de Inserção de Retângulo e desenhe quatro áreas retangulares de interesse.

Arraste um nó timer para o espaço de trabalho, renomeie o nó Pause e altere a propriedade de duração para 500 milissegundos. Arraste um nó De som de reprodução para o espaço de trabalho e renomeie o nó Test_Audio e arraste um nó timer para o espaço de trabalho e renomeie-o Test_Audio_Length. Em seguida, adicione um nó teclado no espaço de trabalho, renomeie o nó Respostas comportamentais e altere a propriedade Chaves Aceitáveis para Cima, Para Baixo, Direita, Esquerda.

Para realizar um experimento, inicie o sistema no PC host para iniciar a aplicação host da câmera e clique na versão executável do projeto experimental no PC de exibição. Insira o nome do participante e clique em Selecionar valor de condição para executar para selecionar um grupo na janela prompt. Coloque um pequeno adesivo na testa do participante para rastrear a posição da cabeça mesmo quando a imagem do aluno é perdida, como durante piscadas ou movimentos repentinos. Seat o participante aproximadamente 60 centímetros de um monitor de cores 4:3 de 21 polegadas com uma resolução de 1.024 por 769 pixels, para o qual 27 pixels equivale a um ângulo de grau.

Ajuste a altura do monitor do pc de exibição para garantir que quando o participante está olhando para frente, ele está olhando verticalmente para o meio para o topo 75% do monitor, em seguida, gire o braço de foco na montagem da mesa para trazer a imagem do olho em foco. Em seguida, clique em Calibrar no PC host e peça ao participante para se fixar em uma grade de cinco alvos de fixação, em sucessão aleatória, sem respostas comportamentais, para mapear os movimentos oculares do participante para o olhar de consideração no mundo visual. Clique em Validar e peça ao participante para se fixar na mesma grade de metas de fixação para validar os resultados de calibração.

Realize uma verificação de deriva pedindo ao participante para pressionar a barra de espaço no teclado enquanto fixa no ponto preto no centro da tela. Em seguida, apresente os estímulos visuais através do monitor de PC de exibição enquanto reprodumente os estímulos auditivos através de um par de alto-falantes externos situados à esquerda e à direita do monitor. Para codificação e análise de dados, abra o visualizador de dados e clique em Arquivo, Arquivo de Importação e importe vários arquivos de dados eyelink para importar todos os arquivos de rastreador de olhos gravados.

Salve os arquivos em um único arquivo evs e, em seguida, abra o arquivo evs e clique em Análise, Relatórios e Relatório de Amostra para exportar os dados de amostra bruta sem agregação. A resposta correta a uma declaração conjuntiva é a grande caixa aberta, enquanto a resposta correta a uma declaração, mas é a pequena caixa aberta contendo o primeiro animal mencionado dentro da declaração. Criticamente, qual caixa é escolhida para as declarações conjuntivas depende de como uma declaração condicional é processada.

Por exemplo, a pequena caixa fechada é escolhida apenas quando a implicação escalar e as inferências de ignorância são computadas, o que resulta da compreensão de uma afirmação disjuntiva. Como ilustrado no painel, a fixação dos olhos na pequena caixa fechada não aumenta a menos que o conectivo sentencial seja o conectivo disjuntivo ou com o aumento começando não mais tarde do que a compensação do conectivo disjuntivo. O Visual World Paradigm é uma técnica versátil de rastreamento ocular para inferir a compreensão on-line da língua falada dos participantes a partir de seus movimentos oculares no mundo real.

Ao recrutar os participantes, lembre-se que eles devem ter capacidade visual normal ou correta e uma capacidade auditiva normal. Para projetar um estudo do mundo real elegível, outros fatores que possam afetar os movimentos oculares dos participantes devem ser controlados ou descartados. Ao analisar estatisticamente os resultados, deve-se considerar problema que pode surgir de respostas limitadas, todas as correlações automáticas ou comparações automáticas.

Explore More Videos

Comportamento questão 140 olho segue técnica paradigma do mundo visual linguagem falada processamento on-line instrução complexa generalizada modelo linear misto distribuição binomial familywise erro ajuste de Bonferroni

Related Videos

VisualEyes: Um sistema de software modular para Experimentação Oculomotor

10:41

VisualEyes: Um sistema de software modular para Experimentação Oculomotor

Related Videos

12.9K Views

Usando movimentos oculares para avaliar os processos cognitivos envolvidos na compreensão de texto

06:49

Usando movimentos oculares para avaliar os processos cognitivos envolvidos na compreensão de texto

Related Videos

27.6K Views

Olho de monitoramento durante a compreensão de linguagem visualmente situado: Flexibilidade e limitações no descobrindo contexto Visual Effects

07:36

Olho de monitoramento durante a compreensão de linguagem visualmente situado: Flexibilidade e limitações no descobrindo contexto Visual Effects

Related Videos

16K Views

Eye-tracking para distinguir os movimentos oculares regressivo compreensão-Oculomotor baseados e durante a leitura

05:54

Eye-tracking para distinguir os movimentos oculares regressivo compreensão-Oculomotor baseados e durante a leitura

Related Videos

6.4K Views

Usando o paradigma de mundo Visual para estudar a compreensão da frase em língua Mandarim de crianças com autismo

06:15

Usando o paradigma de mundo Visual para estudar a compreensão da frase em língua Mandarim de crianças com autismo

Related Videos

7.9K Views

Explorando a sensibilidade infantil à linguagem visual usando o rastreamento de olhos e o paradigma de aparência preferencial

06:07

Explorando a sensibilidade infantil à linguagem visual usando o rastreamento de olhos e o paradigma de aparência preferencial

Related Videos

8.7K Views

Examinando o processamento sintático online de frases complexas faladas em Chinês usando tarefas de interferência de modal duplo

08:32

Examinando o processamento sintático online de frases complexas faladas em Chinês usando tarefas de interferência de modal duplo

Related Videos

5.8K Views

Solidão Augenrrada: Acompanhando o Público assistindo vídeos de Barragem

06:45

Solidão Augenrrada: Acompanhando o Público assistindo vídeos de Barragem

Related Videos

4.4K Views

Interação entre Processos Fonológicos e Semânticos no Reconhecimento de Palavras Visuais usando Eletrofisiologia

05:38

Interação entre Processos Fonológicos e Semânticos no Reconhecimento de Palavras Visuais usando Eletrofisiologia

Related Videos

2.6K Views

Movimentos Oculares na Percepção Visual da Duração: Desembaraçando o Estímulo do Tempo em Processos Pré-Decisórios

09:27

Movimentos Oculares na Percepção Visual da Duração: Desembaraçando o Estímulo do Tempo em Processos Pré-Decisórios

Related Videos

1.5K Views

JoVE logo
Contact Us Recommend to Library
Research
  • JoVE Journal
  • JoVE Encyclopedia of Experiments
  • JoVE Visualize
Business
  • JoVE Business
Education
  • JoVE Core
  • JoVE Science Education
  • JoVE Lab Manual
  • JoVE Quizzes
Solutions
  • Authors
  • Teaching Faculty
  • Librarians
  • K12 Schools
About JoVE
  • Overview
  • Leadership
Others
  • JoVE Newsletters
  • JoVE Help Center
  • Blogs
  • Site Maps
Contact Us Recommend to Library
JoVE logo

Copyright © 2025 MyJoVE Corporation. All rights reserved

Privacy Terms of Use Policies
WeChat QR code