Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Usando il paradigma del mondo visivo per studiare frase comprensione in lingua Mandarina i bambini con autismo

Published: October 3, 2018 doi: 10.3791/58452
* These authors contributed equally

Summary

Vi presentiamo un protocollo per esaminare l'uso delle indicazioni morfologiche durante la comprensione di frase in tempo reale da parte dei bambini con autismo.

Abstract

Comprensione di frase si basa sulla capacità di integrare rapidamente diversi tipi di informazioni linguistiche e non linguistica. Tuttavia, ci è attualmente una scarsità di ricerca esplorando come prescolare i bambini con autismo comprendono frasi utilizzando diversi tipi di segnali. I meccanismi alla base di frase comprensione rimane in gran parte poco chiari. Il presente studio presenta un protocollo per esaminare le abilità di comprensione di frase di bambini in età prescolare con autismo. Più specificamente, un paradigma del mondo visivo di eye tracking è utilizzato per esplorare la comprensione ad ogni istante frase nei bambini. Il paradigma ha molteplici vantaggi. In primo luogo, è sensibile per il corso di tempo di comprensione della frase e così possono fornire molte informazioni su come comprensione di frase si svolge nel corso del tempo. In secondo luogo, richiede minime richieste di attività e comunicazione, quindi è ideale per testare i bambini con autismo. Per ridurre ulteriormente l'onere computazionale dei bambini, le presenti misure di studio occhio movimenti che nascono come risposte automatiche a input linguistico piuttosto che misura i movimenti di occhio che accompagnano cosciente risposte per le istruzioni vocali.

Introduction

Comprensione di frase si basa sulla capacità di integrare rapidamente diversi tipi di informazioni linguistiche e non linguistica1,2,3,4,5,6 , 7 , 8 , 9 , 10 , 11. ricerca preliminare ha trovato che il giovane (TD) bambini con sviluppo tipico in modo incrementale calcolare il significato di una frase utilizzando sia linguistico che non linguistici stecche12,13,14, 15,16,17,18,19. Tuttavia, ci è attualmente una scarsità di ricerca esplorando come prescolare i bambini con autismo capiscono una frase utilizzando diversi tipi di segnali. I meccanismi che sottendono la loro comprensione della frase rimane in gran parte poco chiaro.

È generalmente riconosciuto che c'è una enorme variabilità nelle competenze linguistiche dei bambini con autismo, soprattutto nel loro linguaggio espressivo; ad esempio, alcuni bambini con autismo hanno lingua strutturale relativamente buono, alcuni presentano deficit nei domini lessicali e grammaticali, alcuni dimostrano grammatica alterata e alcuni mai acquisire la lingua parlata funzionale20,21 ,22,23,24,25. Inoltre, previa ricerca sembra suggerire che il loro linguaggio ricettivo è relativamente più compromessa oltre loro linguaggio espressivo26,27,28,29. Maggior parte della ricerca che ha valutato le abilità di comprensione di frase di bambini con autismo hanno utilizzato le attività offline (ad es., standardizzato prove, rapporti badante), e i risultati suggeriscono che la loro capacità di comprensione della frase potrebbe essere particolarmente alterata30,31,32,33,34,35,36,37. Tuttavia, è stato sottolineato che le capacità di comprensione difficile più probabilmente sono legate alla mancanza generale di questi bambini di risposta sociale rispetto al deficit38,39di elaborazione del linguaggio. Nota che queste attività non in linea utilizzate nella precedente ricerca spesso richiedono elevata risposta richieste o interazioni con gli sperimentatori, che potrebbero comportare particolari difficoltà per i bambini con autismo, perché spesso mostrano vari comportamenti difficili o sintomi. Di conseguenza, questo può interagire con le elevate esigenze di comunicazione e attività e mascherare le loro abilità di comprensione [per una panoramica dei metodi per la valutazione del linguaggio ricettivo in bambini con autismo, vedere Kasari et al (2013)27 e Plesa-Skwerer et al. ( 2016)29]. Così, paradigmi sperimentali che possono controllare meglio questi fattori di confusione sono necessari per capire meglio la natura dei meccanismi di elaborazione di frase nell'autismo.

In questo studio, presentiamo un paradigma di eye tracking che può direttamente ed efficacemente valutare le abilità di comprensione di frase di bambini con autismo. Rispetto alle attività non in linea, eye tracking è un più sensibile test paradigma per dimostrare le capacità di comprensione dei bambini. È sensibile per il corso di tempo del processo di comprensione e non richiede alcuna esplicita motore o risposte di lingua dal partecipante, che lo rende un metodo promettente per lo studio i bambini più piccoli e minimamente verbali bambini con autismo. Inoltre, registriamo movimenti oculari come le risposte automatiche per input linguistico invece di misurare i movimenti di occhio che accompagnano cosciente risposte a input linguistico.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Questo studio è stato approvato dal comitato etico della scuola di medicina all'Università di Tsinghua. Consenso informato è stato ottenuto da tutti i singoli partecipanti inclusi nello studio.

1. partecipante Screening e preparazione di studio

  1. Reclutare bambini in età prescolare lingua mandarina con autismo.
    Nota: Le loro diagnosi dovrebbero essere confermate dai neurologi pediatrici presso gli ospedali utilizzando il DSM-IV-TR40 o DSM-541 e, idealmente, il numero dei partecipanti dovrebbe essere non meno di 15. Il presente studio ha reclutato 25 partecipanti con diagnosi confermate.
  2. Valutare ogni partecipante in modo indipendente utilizzando oro-standard strumenti diagnostici come il Autism Diagnostic Observation Schedule42.
  3. Misura il quoziente d'intelligenza verbale dei partecipanti usando il prescolare Wechsler e scala primaria di intelligenza-IV (CN), una prova standardizzata di IQ ideata per lingua Mandarina i bambini fra le età di 2-6 e 6-1143.
    Nota: I punteggi QI verbali dei bambini con autismo nello studio presente erano tutti sopra 80. Erano tutti ad alto funzionamento i bambini con autismo.
  4. Calcolare la lunghezza media di ogni partecipante dell'enunciato (MLU) dividendo il numero totale di parole per il numero delle espressioni in ogni campione di discorso. Registrare 100 espressioni per ogni partecipante sia da loro interazioni con i genitori o insegnanti. Quindi, è possibile calcolare il MLU dividendo il numero totale di parole in enunciati di ciascun partecipante per 100.
    Nota: MLU indica livelli di complessità di frase del partecipante.
  5. Reclutare i bambini TD. Idealmente corrispondere i bambini TD per i bambini con autismo per età (TD group 1), MLU (TD group 2) e quoziente d'intelligenza verbale (TD group 3).
    Nota: Il presente studio ha reclutato 50 bambini di TD (25 ragazzi e 25 ragazze) da asili locali. 25 abbinati ai bambini con autismo per età e 25 abbinati ai bambini con autismo per entrambi MLU e quoziente d'intelligenza verbale.

2. warm-up

  1. Invitare i partecipanti per una sessione di warm-up prima del test effettivo. Introdurre il partecipante per l'ambiente della ricerca e interagire con lui o lei a stabilire un buon rapporto.
    Nota: Questo può essere fatto nello stesso giorno come la sessione di test o organizzato in un giorno diverso. Nella sessione di warm-up, due sperimentatori sono in genere coinvolti e interagiscono con il partecipante utilizzando giocattoli e oggetti di scena.

3. condizioni e disegno sperimentale

  1. Costruire gli stimoli di prova. Creare 12 elementi di destinazione, ciascuna composta da uno stimolo visivo e due frasi parlate contenenti gli indicatori morfologici BA e BEI, rispettivamente. Costruire le frasi pronunciate con la stessa struttura: marcatore morfologico, sintagma nominale (NP) + avverbio + verbo frase (VP) (Vedi esempi 1a e 1b qui sotto).
    Nota: L'indicatore BA indica che il seguente NP è il destinatario dell'evento holding (Vedi 2a), e BEI indica che il seguente NP è l'iniziatore dell'evento (Vedi 2b). Il NP soggetto di una frase in cinese mandarino spesso può essere omesso quando il referente della NP è contestualmente disponibile.

    Esempio:
    (1) r. BA shizi qingqingdi bao-le qilai.
             Leone di BA premere delicatamente
    Significato: Qualcuno tiene delicatamente il leone.
    b. BEI shizi qingqingdi bao-le qilai.
             BEI Leone premere delicatamente
    Significato: Qualcuno è tenuto delicatamente dal Leone.
    (2) a. BA + [NP]destinatario
    b. BEI + [NP]iniziatore
    1. Utilizzare Pixelmator (o un altro editor di immagini) per creare immagini visive. Aprire Pixelmator. Fare clic sull'icona di Pixelmator. Creare un'immagine visiva da un modello. Fare clic su Visualizza dettagli nella finestra scelta modello. Doppio clic sul modello per aprirlo. Regolare la larghezza, altezza, risoluzione e profondità di colore dal menu a comparsa. Immettere i parametri pertinenti. Fare clic su OK.
    2. Utilizzare Praat (o un altro editor audio) per costruire frasi parlate. Impostare il microfono. Aprire Praat. Fare clic sull'icona Praat. Selezionare Record Mono audio dal menu nuovo . Impostare le condizioni di registrazione facendo clic sull'opzione di tasso di campione di 44100. Fare clic sul pulsante Record .
    3. Registrare le frasi pronunciate chiedendo un Beijing Mandarin-madrelingua per produrre le frasi in maniera diretta al bambino. Salvare le registrazioni facendo clic su Salva.
      Nota: In genere, 12 a 16 elementi di destinazione sono costruiti per gli studi di comprensione di frase con i bambini. Stimoli di prova possono essere creati utilizzando altri editor audio e immagine per uno studio del mondo visivo.
  2. Costruire immagini visive, ciascuno contenente due immagini. Le due immagini rappresentano lo stesso evento che coinvolge gli stessi caratteri. Invertire i ruoli di evento (iniziatore o destinatario) dei due personaggi nelle due immagini. Rendere un'immagine compatibile con la costruzione contenente BA (evento BA-target) e uno con la costruzione contenente BEI (evento BEI-target). Un esempio è fornito nella Figura 1.
    Nota: Questa figura è stata ristampata con il permesso di Zhou e Ma (2018)19.
  3. Randomizzazione e contrappeso: dividere le prove di destinazione in due elenchi sperimentale, con un partecipante vedendo ogni stimolo visivo ma ascolto a una sola delle frasi registrate per lo stimolo. Controbilanciare le frasi pronunciate contenente BA e BEI tra le due liste sperimentale, con 6 costruzioni contenenti BA e 6 contenenti BEI. Aggiungere elementi di riempimento 12 a ciascuna lista sperimentale e organizzare le prove di destinazione e filler in ordine casuale. Assegnare casualmente i partecipanti a due elenchi.

4. procedura sperimentale

  1. Procedura di eye tracking.
    1. Invitare i partecipanti a sedersi comodamente davanti al monitor di visualizzazione dell'inseguitore dell'occhio remoto. Impostare la distanza tra gli occhi dei partecipanti e il monitor circa 60 cm. eseguire le procedure standard di calibrazione e validazione chiedendo ai partecipanti di fissarsi su una griglia di cinque obiettivi di fissazione in successione casuale.
    2. Presentare i partecipanti con una frase pronunciata mentre stanno vedendo un'immagine visiva, come fatto nel mondo visivo standard paradigma10,44. Utilizzare l'opzione di eye tracking monoculare tenendo traccia dell'occhio che è sullo stesso lato come l'illuminatore dell'inseguitore dell'occhio. Registrare i movimenti di occhio del partecipante con il tracker di occhio.
      Nota: Il tracker di occhio utilizzato nello studio presente permette remoto eye tracking con una frequenza di campionamento di 500 Hz.
  2. Test e misura.
    1. Testare i partecipanti individualmente. Semplicemente dire ai partecipanti di ascoltare le frasi pronunciate, mentre si stanno visualizzando le immagini. Chiedi uno sperimentatore per monitorare il partecipante sul computer e uno dietro il partecipante e riposare dolcemente le sue mani sulle spalle del partecipante per ridurre al minimo i movimenti improvvisi del partecipante.
    2. Misurare i movimenti di occhio del partecipante che nascono come le risposte automatiche per l'input linguistico con il tracker di occhio.
      Nota: L'attività non chiede ai partecipanti di fare qualunque giudizio consapevole circa le frasi pronunciate per ridurre al minimo l'onere computazionale. Il tracker di occhio registra automaticamente i movimenti dell'occhio.
    3. Monitoraggio durante il test: utilizzare la modalità visualizzatore dal vivo sullo schermo del computer, ha esibito dal tracker occhio durante la prova, per osservare il partecipante osservanti del comportamento. Chiedi lo sperimentatore che controlla la raccolta dei dati tramite la modalità dal vivo spettatori per segnalare allo sperimentatore che sta dietro al partecipante di riorientare il partecipante se suo sguardo fisso dell'occhio vaga fuori dallo schermo del computer.

5. analisi e trattamento dati

  1. Codice fissazioni dei partecipanti nelle due aree di interesse. Utilizzare il Visualizzatore dati per tracciare le aree di due interesse: area evento BA-target e area evento BEI-bersaglio (Vedi Figura 1). Visualizzatore di dati aperti. Selezionare una delle icone di forma dell'area di interesse sulla barra degli strumenti. Utilizzare il mouse per trascinare una casella intorno alla regione che si desidera definire come un'area di interesse. Salva l'area di interesse nella cartella interesse zona impostata. Applicare sulla zona di interesse per altre immagini visive.
    Nota: L'evento raffigurato nel pannello superiore della Figura 1 corrisponde la BA-costruzione, quindi l'evento di BA-destinazione e l'evento raffigurato nella inferiore pannello partite Figura 1b, quindi l'evento di BEI-destinazione. Il software utilizzato per la codifica dei dati è Visualizzatore dati, che viene fornito con il tracker di occhio utilizzato nello studio. È disponibile anche altri software di analisi dati.
  2. Analizzare i modelli di sguardo occhio utilizzando Visualizzatore dati.
    1. Visualizzatore di dati aperti. Scegliere la funzione di report di esempio dal menu per impostare le finestre di tempo per l'analisi (ad esempio, ogni 200 ms per l'intervallo di tempo nel presente studio). Utilizzare la stessa funzione a tempo blocco la fissazione di proporzioni nelle aree di interesse per l'inizio del marcatore per ogni prova. Esportare i dati grezzi in un file di excel utilizzando la funzione di esportazione dal menu.
    2. Utilizza le funzioni di excel per la media le proporzioni di fissazione che seguono l'inizio del marcatore per ogni zona. Utilizzare le funzioni di excel per calcolare le proporzioni di fissazione in ogni finestra di tempo di 200 ms per un periodo di ms 5200 (la lunghezza media delle frasi di destinazione + 200 ms) fin dall'inizio del marcatore per le due aree. Applicare modelli di misto-effetti lineare per i dati di movimento di occhio, dettagliati nel rappresentante risultati riportati di seguito.
      Nota: L'uso di 200 ms come una finestra di tempo si basa la procedura standard per l'analisi dei dati di figlio occhio lo sguardo nella letteratura12,13,18,19,45, 46,47e si presume generalmente che ci vogliono circa 200 ms per osservare gli effetti di marcatori linguistici su occhio movimenti48.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Lo studio presente utilizza coppie minime come esempi 1a e 1b per indagare se e quanto velocemente i bambini con autismo possono utilizzare informazioni sugli eventi codificati in due indicatori morfologici durante la comprensione di frase in tempo reale. E ' stato previsto che se essi sono in grado di usare rapidamente ed efficacemente informazioni sugli eventi in due marcatori durante la comprensione di frase in tempo reale, allora si dovrebbe guardano più all'evento BA-destinazione sentendo BA rispetto quando ascoltando BEI. Anche, che dovrebbe fissarsi più sull'evento BEI-destinazione dopo l'ascolto di BEI rispetto dopo l'ascolto di BA.

Il confronto tra 5-year-olds con l'autismo e i loro coetanei di TD pari età è presentato nei risultati rappresentativi. La figura 2 Mostra le proporzioni di fissazione medio del TD 5-year-olds sull'evento BA-destinazione (pannello A) ed evento di BEI-destinazione (pannello B) nelle due condizioni. Figura 3 riassume le proporzioni di fissazione medio di 5-anno-olds con autismo.

Le cifre dimostrano che gli schemi di movimento di autismo gruppo visualizzato occhio simili al gruppo di TD di pari età. Entrambi i gruppi hanno esibito altre fissazioni sull'evento BA-destinazione quando sentendo BA rispetto quando ascoltando BEI, che si verificano dopo l'inizio dell'oggetto NP e prima dell'inizio dell'avverbio. Per essere precisi, l'effetto si è verificato nel gruppo TD durante la finestra tra 1400 e 1600 ms (Figura 2), mentre l'effetto si è presentato nel gruppo di autismo durante la finestra tra 1800 e 2000 ms (Figura 3). Al contrario, un modello di movimento occhio opposto è stato trovato nell'evento BEI-destinazione per entrambi i gruppi: altre fissazioni sull'evento BEI-obiettivo sono state osservate quando sentire BEI che quando ascoltare BA, ancora una volta che si verificano dopo l'inizio dell'oggetto NP e prima dell'inizio dell'avverbio.

Fissazione di proporzioni erano poi trasformate usando la formula empirica logit49: probabilità = ln[(y+0.5)/(n-y+0.5)], dove y è il numero delle fissazioni sulle aree di interesse durante una particolare collocazione temporale e n è il numero totale delle fissazioni in tale collocazione temporale. Modelli lineari misti-effetti sono stati poi montati i dati trasformati. Modelli statistici sono stati calcolati per i due gruppi separatamente basati su loro fissazioni nelle aree di due interesse nelle finestre del momento critico, dove tempo e marcatore tipo (BA contro BEI) sono stati trattati come gli effetti fissi. Piste e intercetta casuale sono stati incluse per entrambi i partecipanti e gli elementi50. Il processo di adattamento è stata condotta tramite funzioni lmer dal pacchetto lme4 (v 1.1-12)51 del software ambiente R (v3.2.5)52. Un test di Wald è stato poi utilizzato per calcolare i valori di pper ogni effetto fisso.

I risultati del modello per il TD 5-year-olds nelle aree di due interesse: nella zona dell'evento BA-obiettivo, sentendo BA ha causato i bambini TD a guardare in modo significativo questo evento più di quando ascoltando BEI (β= 0,54, p <.001. Inoltre, c'era un'interazione significativa fra tipo di marcatore e tempo (β= 0,33, p <.001), che indica che la probabilità di fissazione sull'evento BA-destinazione aumentato nel tempo dopo l'inizio della BA. Tuttavia, i bambini di TD hanno esibito un modello di movimento occhio opposto nella zona dell'evento BEI-obiettivo. Sentendo la BEI ha attivato altre fissazioni sull'evento BEI-destinazione che ascoltare BA (β= -0,60, p <.001. Ancora una volta, c'era un'interazione significativa fra tipo di marcatore e tempo (β=-0.21, p <.001), suggerendo che la tendenza del gruppo TD a guardare l'evento BEI-destinazione è diminuito nel tempo dopo l'inizio della BA.

I risultati del modello per il 5-year-olds con autismo nelle aree di due interesse: il gruppo di autismo ha mostrato simile occhio schemi di movimento. BA di udienza ha attivato altre fissazioni sull'evento BA-destinazione di sentire BEI (β= 0,50, p <.001. Sentendo la BEI ha attivato più sguardi all'evento BEI-destinazione che ascoltare BA (β= -0,54, p <.001. Come il gruppo di TD, il gruppo di autismo ha esibito interazioni significative in entrambe le aree di interesse. In BA-target e le aree di evento BEI-destinazione, i bambini con autismo visualizzata un'interazione significativa fra tipo di marcatore e tempo (β= 0,15, p <,01 nella zona di evento BA-destinazione; β= -0.16, p <,01 nella Area eventi BEI-target).

Nel complesso, i modelli di occhio esibiti dal 5-year-olds con autismo forniscono la prova che sono stati in grado di utilizzare le informazioni di evento codificate in due indicatori morfologici rapidamente ed efficacemente durante la comprensione di frase in tempo reale. I risultati mostrano che i movimenti di occhio registrato come le risposte automatiche per l'input linguistico sono misure sensibili delle abilità di comprensione di frase in bambini con autismo e bambini TD.

Figure 1
Figura 1 : Immagine visiva esempio. (A) indica un evento di BA-destinazione. (B) rappresenta un evento di BEI-destinazione. Questa figura è stata ristampata con il permesso di Zhou e Ma (2018)19. Clicca qui per visualizzare una versione più grande di questa figura.

Figure 2
Figura 2 : Media proporzioni di fissazione dall'inizio di marcatore in entrambe le condizioni in TD 5-anno-olds. (A) indica le proporzioni di fissazione sull'evento BA-destinazione. (B) illustra le proporzioni di fissazione sull'evento BEI-destinazione. Clicca qui per visualizzare una versione più grande di questa figura.

Figure 3
Nella figura 3Media proporzioni di fissazione dall'inizio di marcatore in entrambe le condizioni a 5-year-olds con autismo. (A) indica le proporzioni di fissazione sull'evento BA-destinazione. (B) illustra le proporzioni di fissazione sull'evento BEI-destinazione. Clicca qui per visualizzare una versione più grande di questa figura.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

In questo studio, presentiamo un paradigma di eye tracking che può direttamente ed efficacemente valutare le abilità di comprensione di frase di bambini con autismo. Abbiamo trovato che 5-anno-vecchi bambini con autismo, come i loro coetanei di TD di pari età, hanno esibito i modelli di sguardo degli occhi che riflettono il rapido ed efficace uso di spunti linguistici durante la comprensione di frase in tempo reale.

I risultati forniscono la prova che l'eye tracking (in particolare, il paradigma del mondo visivo) è una misura sensibile della comprensione in tempo reale frase in bambini con autismo. Rispetto ai metodi non in linea, il paradigma ha diversi vantaggi. In primo luogo, è sensibile per il corso di tempo di comprensione della frase. In secondo luogo, riduce al minimo l'attività e le esigenze di comunicazione coinvolti, così è un metodo più indicato che può essere utilizzato con i bambini che esibiscono le caratteristiche comportamentali impegnativi. In terzo luogo, semplicemente registra movimenti oculari come le risposte automatiche per input linguistico senza chiedere ai partecipanti di fornire consapevole giudizi sull'input, riducendo significativamente l'onere computazionale dei partecipanti.

Il paradigma del mondo visivo si basa su un presupposto che collega che i movimenti di occhio nel mondo visivo vengono sincronizzati con l'elaborazione in tempo reale degli stimoli linguistici simultanei. Così, uno studio di comprensione linguistica efficace usando il paradigma del mondo visivo richiede un mapping stretto tra modelli di occhio lo sguardo nel mondo visivo e referenziale elaborazione della lingua parlata. Per garantire un stretto mapping tra i due, è importante progettare prima gli stimoli visivi in modo in modo che i movimenti di occhio in immagini visive riflettono solo i processi alla base di comprensione della lingua parlata e che altri fattori che possono influenzare movimenti oculari dei partecipanti sono ben controllati. In secondo luogo, è importante per i movimenti di occhio di tempo-blocco dei partecipanti alla comparsa di un indicatore critico linguistico nella lingua parlata e per assicurarsi che ogni elemento e i confini degli elementi lingua parlata possono essere chiaramente identificati per successive analisi.

Il paradigma del mondo visivo è stato utilizzato con successo per testare le abilità di lingua per bambini di TD. Il presente studio ha esplorato il potenziale di condurre studi di mondo visivo sulla comprensione del linguaggio in età prescolare bambini con autismo. Come discusso, questi risultati forniscono la prova per la validità e la sensibilità del paradigma nella prova di conoscenza linguistica in bambini con autismo. I risultati inoltre ci invitano a ripensare le domande che circondano le abilità di comprensione del linguaggio dei bambini con autismo. Come discusso, la ricerca precedente sembra suggerire che le abilità di comprensione di frase di bambini con autismo potrebbero essere gravemente compromesse; Tuttavia, come notato da Kasari et al.27 e Plesa-Skwerer et al.29, è spesso difficile valutare le capacità di comprensione dei bambini con autismo usando metodi tradizionali, come le prove standardizzate o altre attività off-line, perché questi attività richiedono elevata risposta richieste o interazioni con gli sperimentatori; di conseguenza, questo potrebbe porre particolari difficoltà per i bambini con autismo. Utilizzando il paradigma del mondo visivo, il presente studio dimostra per la prima volta che quando minime richieste di attività e comunicazione sono coinvolti, i bambini con autismo sono in grado di utilizzare spunti linguistici efficacemente e rapidamente durante la comprensione di frase in tempo reale. Loro capacità di comprensione della frase sono molto meglio di quanto è stato suggerito da ricerche precedenti. I risultati inoltre forniscono la prova che le prestazioni di scarsa comprensione dei bambini con autismo in passato la ricerca sono forse a causa di una mancanza di reattività sociale e le elevate esigenze di comunicazione e attività coinvolte in queste attività tradizionali.

Il paradigma del mondo visivo può essere applicato sistematicamente per stabilire modelli di sguardo di occhio connessi con lingua di elaborazione nell'autismo, che ci aiuterà a meglio comprendere la natura della frase l'elaborazione di meccanismi nell'autismo così come aiutano a identificare precocemente indicatori clinici per l'autismo.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Gli autori non hanno nulla a rivelare.

Acknowledgments

Questo lavoro è stato finanziato dal National Social Science Foundation of China [16BYY076] di Peng Zhou e la scienza Foundation di Beijing Language and Cultural University nell'ambito dei fondi di ricerca fondamentali per le Università centrale [15YJ050003]. Gli autori sono grati per i bambini, genitori e insegnanti presso la piattaforma di autismo Enqi e asilo Taolifangyuan a Pechino, Cina, per il loro supporto in esecuzione dello studio.

Materials

Name Company Catalog Number Comments
EyeLink 1000 plus eye tracker  SR Research Ltd.  The EyeLink 1000 plus allows remote eye tracking, without a head support. The eye tracker provides information about the participant’s point of gaze at a sampling rate of 500 Hz, and it has accuracy of 0.5 degrees of visual angle. 

DOWNLOAD MATERIALS LIST

References

  1. Altmann, G. T., Kamide, Y. Incremental interpretation at verbs: Restricting the domain of subsequent reference. Cognition. 73 (3), 247-264 (1999).
  2. Altmann, G. T., Kamide, Y. The real-time mediation of visual attention by language and world knowledge: Linking anticipatory (and other) eye movements to linguistic processing. Journal of Memory and Language. 57 (4), 502-518 (2007).
  3. DeLong, K. A., Urbach, T. P., Kutas, M. Probabilistic word pre-activation during language comprehension inferred from electrical brain activity. Nature neuroscience. 8 (8), 1117-1121 (2005).
  4. Kamide, Y., Altmann, G. T., Haywood, S. L. The time-course of prediction in incremental sentence processing: Evidence from anticipatory eye movements. Journal of Memory and Language. 49 (1), 133-156 (2003).
  5. Knoeferle, P., Crocker, M. W., Scheepers, C., Pickering, M. J. The influence of the immediate visual context on incremental thematic role-assignment: Evidence from eye-movements in depicted events. Cognition. 95 (1), 95-127 (2005).
  6. Knoeferle, P., Kreysa, H. Can speaker gaze modulate syntactic structuring and thematic role assignment during spoken sentence comprehension. Frontiers in Psychology. 3, 538 (2012).
  7. Knoeferle, P., Urbach, T. P., Kutas, M. Comprehending how visual context influences incremental sentence processing: Insights from ERPs and picture-sentence verification. Psychophysiology. 48 (4), 495-506 (2011).
  8. Pickering, M. J., Traxler, M. J., Crocker, M. W. Ambiguity resolution in sentence processing: Evidence against frequency-based accounts. Journal of Memory and Language. 43 (3), 447-475 (2000).
  9. Staub, A., Clifton, C. Syntactic prediction in language comprehension: Evidence from either... or. Journal of Experimental Psychology: Learning, Memory, and Cognition. 32 (2), 425-436 (2006).
  10. Tanenhaus, M., Spivey-Knowlton, M., Eberhard, K., Sedivy, J. Integration of visual and linguistic information in spoken language comprehension. Science. 268 (5217), 1632-1634 (1995).
  11. Van Berkum, J. J., Brown, C. M., Zwitserlood, P., Kooijman, V., Hagoort, P. Anticipating upcoming words in discourse: Evidence from ERPs and reading times. Journal of Experimental Psychology: Learning, Memory, and Cognition. 31 (3), 443-467 (2005).
  12. Choi, Y., Trueswell, J. C. Children's (in) ability to recover from garden paths in a verb-final language: Evidence for developing control in sentence processing. Journal of Experimental Child Psychology. 106 (1), 41-61 (2010).
  13. Huang, Y., Zheng, X., Meng, X., Snedeker, J. Children's assignment of grammatical roles in the online processing of Mandarin passive sentences. Journal of Memory and Language. 69 (4), 589-606 (2013).
  14. Lew-Williams, C., Fernald, A. Young children learning Spanish make rapid use of grammatical gender in spoken word recognition. Psychological Science. 18 (3), 193-198 (2007).
  15. Sekerina, I. A., Trueswell, J. C. Interactive processing of contrastive expressions by Russian children. First Language. 32 (1-2), 63-87 (2012).
  16. Trueswell, J. C., Sekerina, I., Hill, N. M., Logrip, M. L. The kindergarten-path effect: Studying on-line sentence processing in young children. Cognition. 73 (2), 89-134 (1999).
  17. Van Heugten, M., Shi, R. French-learning toddlers use gender information on determiners during word recognition. Developmental Science. 12 (3), 419-425 (2009).
  18. Zhou, P., Crain, S., Zhan, L. Grammatical aspect and event recognition in children's online sentence comprehension. Cognition. 133 (1), 262-276 (2014).
  19. Zhou, P., Ma, W. Children's use of morphological cues in real-time event representation. Journal of Psycholinguistic Research. 47 (1), 241-260 (2018).
  20. Eigsti, I. M., Bennetto, L., Dadlani, M. B. Beyond pragmatics: Morphosyntactic development in autism. Journal of Autism and Developmental Disorders. 37 (6), 1007-1023 (2007).
  21. Kjelgaard, M. M., Tager-Flusberg, H. An investigation of language impairment in autism: Implications for genetic subgroups. Language and Cognitive Processes. 16 (2-3), 287-308 (2001).
  22. Tager-Flusberg, H. Risk factors associated with language in autism spectrum disorder: clues to underlying mechanisms. Journal of Speech, Language, and Hearing Research. 59 (1), 143-154 (2016).
  23. Tager-Flusberg, H., Kasari, C. Minimally verbal school-aged children with autism spectrum disorder: the neglected end of the spectrum. Autism Research. 6 (6), 468-478 (2013).
  24. Tek, S., Mesite, L., Fein, D., Naigles, L. Longitudinal analyses of expressive language development reveal two distinct language profiles among young children with autism spectrum disorders. Journal of Autism and Developmental Disorders. 44 (1), 75-89 (2014).
  25. Wittke, K., Mastergeorge, A. M., Ozonoff, S., Rogers, S. J., Naigles, L. R. Grammatical language impairment in autism spectrum disorder: Exploring language phenotypes beyond standardized testing. Frontiers in Psychology. 8, 532 (2017).
  26. Hudry, K., Leadbitter, K., Temple, K., Slonims, V., McConachie, H., Aldred, C., et al. Preschoolers with autism show greater impairment in receptive compared with expressive language abilities. International Journal of Language & Communication Disorders. 45 (6), 681-690 (2010).
  27. Kasari, C., Brady, N., Lord, C., Tager-Flusberg, H. Assessing the minimally verbal school-aged child with autism spectrum disorder. Autism Research. 6 (6), 479-493 (2013).
  28. Luyster, R. J., Kadlec, M. B., Carter, A., Tager-Flusberg, H. Language assessment and development in toddlers with autism spectrum disorders. Journal of Autism and Developmental Disorders. 38 (8), 1426-1438 (2008).
  29. Plesa-Skwerer, D., Jordan, S. E., Brukilacchio, B. H., Tager-Flusberg, H. Comparing methods for assessing receptive language skills in minimally verbal children and adolescents with Autism Spectrum Disorders. Autism. 20 (5), 591-604 (2016).
  30. Boucher, J. Research review: Structural language in autism spectrum disorder-characteristics and causes. Journal of Child Psychology and Psychiatry. 53 (3), 219-233 (2012).
  31. Eigsti, I. M., de Marchena, A. B., Schuh, J. M., Kelley, E. Language acquisition in autism spectrum disorders: A developmental review. Research in Autism Spectrum Disorders. 5 (2), 681-691 (2011).
  32. Howlin, P. Outcome in high-functioning adults with autism with and without early language delays: Implications for the differentiation between autism and Asperger syndrome. Journal of Autism and Developmental Disorders. 33 (1), 3-13 (2003).
  33. Koning, C., Magill-Evans, J. Social and language skills in adolescent boys with Asperger syndrome. Autism: The International Journal of Research and Practice. 5 (1), 23-36 (2001).
  34. Kover, S. T., Haebig, E., Oakes, A., McDuffie, A., Hagerman, R. J., Abbeduto, L. Sentence comprehension in boys with autism spectrum disorder. American Journal of Speech-Language Pathology. 23 (3), 385-394 (2004).
  35. Perovic, A., Modyanova, N., Wexler, K. Comprehension of reflexive and personal pronouns in children with autism: A syntactic or pragmatic deficit. Applied Psycholinguistics. 34 (4), 813-835 (2013).
  36. Rapin, I., Dunn, M. Update on the language disorders of individuals on the autistic spectrum. Brain Development. 25 (3), 166-172 (2003).
  37. Tager-Flusberg, H. Sentence comprehension in autistic children. Applied Psycholinguistics. 2 (1), 5-24 (1981).
  38. Rutter, M., Maywood, L., Howlin, P. Language delay and social development. Specific speech and language disorders in children: Correlates, characteristics, and outcomes. Fletcher, P., Hall, D. , Whurr. London. (1992).
  39. Tager-Flusberg, H. The challenge of studying language development in autism. Methods for studying language production. Menn, L., Ratner, N. B. , Erlbaum. Nahwah, NJ. (2000).
  40. American Psychiatric Association. Diagnostic and statistical manual of mental disorders, 4th edition, text revision (DSM-IV-TR). American Psychiatric Association. , Washington, DC. (2000).
  41. American Psychiatric Association. Diagnostic and statistical manual of mental disorders, 5th edition (DSM-5). American Psychiatric Association. , Washington, DC. (2013).
  42. Lord, C., Rutter, M., DiLavore, P. C., Risi, S. Autism diagnostic observation schedule. Western Psychological Services. , Los Angeles, CA. (1999).
  43. Li, Y., Zhu, J. Wechsler Preschool and Primary Scale of Intelligence™-IV CN) [WPPSI-IV (CN)]. Zhuhai King-may Psychological Measurement Technology Development Co., Ltd. , Zhuhai. (2014).
  44. Cooper, R. M. The control of eye fixation by the meaning of spoken language: A new methodology for the real-time investigation of speech perception, memory, and language processing. Cognitive Psychology. 6 (1), 84-107 (1974).
  45. Huang, Y., Snedeker, J. Semantic meaning and pragmatic interpretation in five-year olds: Evidence from real time spoken language comprehension. Developmental Psychology. 45 (6), 1723-1739 (2009).
  46. Snedeker, J., Yuan, S. Effects of prosodic and lexical constraints on parsing in young children (and adults). Journal of Memory and Language. 58 (2), 574-608 (2008).
  47. Zhou, P., Crain, S., Zhan, L. Sometimes children are as good as adults: The pragmatic use of prosody in children's on-line sentence processing. Journal of Memory and Language. 67 (1), 149-164 (2012).
  48. Matin, E., Shao, K. C., Boff, K. R. Saccadic overhead: Information-processing time with and without saccades. Perception & Psychophysics. 53 (4), 372-380 (1993).
  49. Barr, D. J. Analyzing 'visual world' eyetracking data using multilevel logistic regression. Journal of Memory and Language. 59 (4), 457-474 (2008).
  50. Baayen, R. H., Davidson, D. J., Bates, D. M. Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language. 59 (4), 390-412 (2008).
  51. Bates, D. M., Maechler, M., Bolker, B. lme4: Linear mixed-effects models using S4 classes. , Available from: http://cran.r-project.org/web/packages/lme4/index.html (2013).
  52. R Development Core Team. R: A Language and Environment for Statistical Computing. , Vienna. Available from: http://www.r-project.org (2017).

Tags

Comportamento problema 140 paradigma di Eye-tracking visual mondo spunti linguistici indicatori morfologici linguaggio infantile comprensione di frase in tempo reale
Usando il paradigma del mondo visivo per studiare frase comprensione in lingua Mandarina i bambini con autismo
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Zhou, P., Ma, W., Zhan, L., Ma, H.More

Zhou, P., Ma, W., Zhan, L., Ma, H. Using the Visual World Paradigm to Study Sentence Comprehension in Mandarin-Speaking Children with Autism. J. Vis. Exp. (140), e58452, doi:10.3791/58452 (2018).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter