Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Mit Hilfe der visuellen Welt Paradigma Satz Verständnis in Mandarin-sprachigen Kindern mit Autismus zu studieren

Published: October 3, 2018 doi: 10.3791/58452
* These authors contributed equally

Summary

Wir präsentieren Ihnen ein Protokoll, um die Verwendung von morphologischen Hinweise während der Echtzeit-Satz Verständnis von Kindern mit Autismus untersuchen.

Abstract

Satz Verständnis beruht auf der Fähigkeit, unterschiedliche Arten von sprachlichen und nichtsprachlichen Informationen schnell zu integrieren. Allerdings gibt es derzeit ein Mangel an Forschung erforschen wie Vorschulkinder mit Autismus Sätze mit verschiedenen Arten von Cues zu verstehen. Die Mechanismen Satz Verständnis bleibt weitgehend unklar. Die vorliegende Studie zeigt ein Protokoll, um den Satz Verständnis Fähigkeiten der Kinder im Vorschulalter mit Autismus untersuchen. Genauer gesagt, wird eine visuelle Welt Paradigma Eye-Tracking verwendet, um das Moment zum Satz Verständnis bei den Kindern zu erkunden. Das Paradigma hat mehrere Vorteile. Zuerst, es reagiert empfindlich auf den zeitlichen Verlauf des Satzes Verständnis und somit bieten reichhaltige Information über wie Satz Verständnis im Laufe der Zeit entfaltet. Zweitens bedarf es geringe Aufgabe und Kommunikation Anforderungen, so ist es ideal für Kinder mit Autismus zu testen. Um die rechnerische Belastung der Kinder weiter zu minimieren, Augenbewegungen der vorliegenden Studie Maßnahmen, die entstehen als automatische Reaktionen auf sprachlichen Input, anstatt Messung der Augenbewegungen, die bewusste Antworten auf gesprochene Anweisungen zu begleiten.

Introduction

Satz Verständnis beruht auf der Fähigkeit, schnell zu integrieren, verschiedene Arten von sprachlichen und nichtsprachlichen Informationen1,2,3,4,5,6 , 7 , 8 , 9 , 10 , 11. vorherige Forschung hat festgestellt, dass Jugendliche in der Regel entwickeln inkrementell (TD) Kinder zu berechnen, die Bedeutung eines Satzes mit sprachlichen und nichtsprachlichen Hinweise12,13,14, 15,16,17,18,19. Allerdings gibt es derzeit ein Mangel an Forschung erforschen wie Vorschulkinder mit Autismus verstehen ein Satzes mit verschiedenen Arten von Cues. Die Mechanismen, die ihr Verständnis der Satz bleibt weitgehend unklar.

Es ist allgemein anerkannt, dass es enorme Variabilität in der sprachlichen Fähigkeiten von Kindern mit Autismus, vor allem in ihrer expressiven Sprache; zum Beispiel, einige Kinder mit Autismus haben relativ gute strukturelle Sprache, einige Weisen Defizite bei der lexikalischen und grammatischen Domänen, einige zeigen beeinträchtigt Grammatik und nie erlangen einige funktionelle gesprochene Sprache20,21 ,22,23,24,25. Darüber hinaus scheint die frühere Forschung darauf hin, dass ihre rezeptive Sprache relativ mehr beeinträchtigt als ihre expressive Sprache26,27,28,29. Die meisten Untersuchungen, die Satz-Verständnis-Fähigkeiten von Kindern mit Autismus bewertet hat offline Aufgaben (z. B. standardisierte Tests, Betreuer Berichte) verwendet haben, und die Ergebnisse deuten darauf hin, dass ihr Satz Verständnis können möglicherweise besonders beeinträchtigt30,31,32,33,34,35,36,37. Jedoch hat es hingewiesen, dass schlechte Verständnis Fähigkeiten dieser Kinder Mangel an sozialen Reaktionsfähigkeit als auf Sprachverarbeitung Defizite38,39wahrscheinlicher Zusammenhang stehen. Beachten Sie, dass diese offline Aufgaben in der bisherigen Forschung häufig erfordern hohe Resonanz Forderungen oder Interaktionen mit den Experimentatoren, die besondere Schwierigkeiten für Kinder mit Autismus, darstellen könnte, da sie oft verschiedene herausfordernde Verhaltensweisen zeigen oder Symptome. Infolgedessen können interagieren mit den hohen Anforderungen der Aufgabe und Kommunikation und maskieren ihre Fähigkeiten Verständnis [finden Sie einen Überblick über Methoden zur Bewertung der rezeptiven Sprachentwicklung bei Kindern mit Autismus, Kasari Et Al. (2013)27 und Plesa-Skwerer Et Al. () 2016)29]. So sind experimentelle Paradigmen, die diese Störfaktoren eine bessere Kontrolle erforderlich, um weiter zu verstehen, die Art der Strafe-Mechanismen bei Autismus.

In der aktuellen Studie präsentieren wir eine Eyetracking-Paradigma, die direkt und effektiv Satz Verständnis Fähigkeiten von Kindern mit Autismus einschätzen kann. Im Vergleich zu offline Aufgaben, Eyetracking-testet ein empfindlicher Paradigma, Kinder Verständnis Fähigkeiten unter Beweis. Es ist empfindlich gegenüber den zeitlichen Verlauf des Prozesses verstehen und erfordert keine explizite Motor oder Sprache Antworten der Teilnehmer, so dass es eine vielversprechende Methode, jüngere Kinder und minimal verbalen Kinder mit Autismus zu studieren. Darüber hinaus erfassen wir Augenbewegungen als automatische Reaktionen auf sprachlichen Input statt Messung der Augenbewegungen, die bewusste Antworten auf sprachlichen Input zu begleiten.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Diese Studie wurde von der Ethikkommission der medizinischen Fakultät an der Tsinghua Universität genehmigt. Informierte Einwilligung eingeholt wurde von allen einzelnen Teilnehmern, die in die Studie eingeschlossen.

1. Teilnehmer Screening und Studienvorbereitung

  1. Mandarin-sprachigen Kinder im Vorschulalter mit Autismus zu rekrutieren.
    Hinweis: Sollte ihre Diagnosen von pädiatrischen Neurologen in Krankenhäusern mit DSM-IV-TR40 oder DSM-541 bestätigt werden und im Idealfall die Teilnehmerzahl sollte nicht weniger als 15. Die vorliegende Studie rekrutiert 25 Teilnehmer mit bestätigten Diagnosen.
  2. Jeder Teilnehmer selbständig mit Goldstandard diagnostische Instrumente wie Autismus diagnostische Beobachtung Zeitplan42zu bewerten.
  3. Maßnahme die verbale IQ der Teilnehmer mit dem Wechsler Preschool und primären Maßstab der Intelligenz-IV (CN), eine standardisierte IQ-Test für Mandarin-sprechende Kinder im Alter von 2 bis 6 und 6-1143konzipiert.
    Hinweis: Die verbale IQ-Werte von Kindern mit Autismus in der vorliegenden Studie wurden alle über 80. Sie waren alle High-Funktionieren Kinder mit Autismus.
  4. Berechnen Sie jeder Teilnehmer mittleren Länge der Äußerung (MLU) durch Division der Gesamtzahl der Wörter durch die Anzahl der Äußerungen in jeder Rede Probe. Notieren Sie 100 Äußerungen für jeden Teilnehmer entweder aus ihren Interaktionen mit Eltern oder Lehrern. Dann berechnen Sie die MLU indem die Gesamtzahl der Wörter in jeder Teilnehmer Äußerungen durch 100 dividiert.
    : Hinweis MLU des Teilnehmers Satz Komplexitätsstufen.
  5. TD-Kinder zu rekrutieren. Idealerweise passen die TD-Kinder, die Kinder mit Autismus für Alter (TD-Gruppe 1), MLU (TD-Gruppe 2) und verbale IQ (TD-Gruppe 3).
    Hinweis: Die vorliegende Studie rekrutierten 50 TD Kinder (25 jungen und 25 Mädchen) von lokalen Kindergärten. 25 abgestimmt auf die Kinder mit Autismus für Alter und 25 MLU und verbale IQ auf die Kinder mit Autismus abgestimmt.

(2) Warm-up-Session

  1. Laden Sie die Teilnehmer für eine Warm-up-Session vor dem eigentlichen Test. Vorstellen des Teilnehmers der Forschungslandschaft und interagieren mit ihm oder ihr einen guten Draht zu etablieren.
    Hinweis: Dies kann werden am gleichen Tag wie die Test-Session oder an einem anderen Tag organisiert. Im Warm-up engagieren sich in der Regel zwei Experimentatoren und Interaktion mit dem Teilnehmer mit Spielzeug und Requisiten.

3. Bedingungen und experimentelles Design

  1. Konstruieren Sie die Test-Reize. 12 Zielelemente, jeweils bestehend aus einem visuellen Reiz und zwei gesprochene Sätze, die morphologische Marker BA und BEI, bzw. zu erstellen. Die gesprochene Sätze, die mit der gleichen Struktur zu konstruieren: morphologische Marker, Nominalphrase (NP), Adverb + Verb phrase (VP) (siehe Beispiele 1a und 1 b unten).
    Hinweis: Die Markierung BA gibt an, dass die folgende NP der Empfänger der Holding-Ereignis ist (siehe 2a), und BEI weist darauf hin, dass die folgende NP der Initiator der Veranstaltung ist (siehe 2 b). Thema NP eines Satzes in Mandarin kann oft verzichtet werden, wenn der Referent der NP kontextuell verfügbar ist.

    Beispiel:
    (1) a. BA Shizi Qingqingdi Bao-le Qilai.
             BA -Löwen halten sanft
    Bedeutung: Jemand hält sanft die Löwen.
    B. BEI Shizi Qingqingdi Bao-le Qilai.
             BEI Löwen halten sanft
    Bedeutung: Jemand wird sanft von den Löwen gehalten.
    (2) a. BA + [NP]Empfänger
    b. BEI + [NP]Initiator
    1. Verwenden Sie Pixelmator (oder einem anderen Bildbearbeitungsprogramm) um Bilder zu erstellen. Pixelmator zu öffnen. Klicken Sie auf das Symbol, Pixelmator. Erstellen Sie ein visuelles Bild aus einer Vorlage. Klicken Sie auf Details anzeigen im Template Chooser. Doppelklicken Sie auf die Vorlage, um sie zu öffnen. Passen Sie die Breite, Höhe, Auflösung und Farbtiefe aus den Popup-Menüs. Geben Sie die relevanten Parameter. Klicken Sie auf "OK".
    2. Verwenden Sie Praat (oder einem anderen Audio-Editor), um gesprochene Sätze zu konstruieren. Richten Sie das Mikrofon. Praat zu öffnen. Klicken Sie auf das Praat-Symbol. Wählen Sie Datensatz Mono sound aus dem Menü " New ". Legen Sie die Aufnahmebedingungen durch Klicken auf die Option "Sample Rate" von 44100. Klicken Sie auf die Schaltfläche " Record ".
    3. Aufzeichnen der gesprochenen Sätzen mit der Frage eines Beijing Mandarin-Muttersprachler, die Sätze in gewissem Sinne unter der Regie von Kind zu produzieren. Speichern Sie die Aufnahmen durch Klicken auf Speichern.
      Hinweis: In der Regel sind 12 bis 16 Zielobjekte für Satz Verständnis Studien mit Kindern gebaut. Teststimuli können mit anderen Bild- und audio-Editoren für eine visuelle Welt Studie erstellt werden.
  2. Erstellen Sie visuelle Bilder, jeweils zwei Bilder. Die beiden Bilder zeigen das gleiche Ereignis mit den gleichen Zeichen. Kehren Sie die Event-Rollen (Initiator oder Empfänger) der beiden Charaktere in den beiden Bildern. Machen Sie ein Bild mit dem Bau mit BA (BA-Ziel-Event) und einer mit dem Bau mit at (at-Zielereignis) kompatibel. Ein Beispiel ist in Abbildung 1angegeben.
    Hinweis: Diese Zahl hat mit freundlicher Genehmigung von Zhou und Ma (2018)19abgedruckt worden.
  3. Gegengewicht und Randomisierung: Teilen Sie die Ziel-Prüfungen in zwei experimentelle Listen mit einem Teilnehmer jedes visuelle Reize zu sehen, aber hören nur eines die aufgenommenen Sätze für den Reiz. Gegengewicht zu die gesprochenen Sätzen mit BA und BEI über die beiden experimentellen Listen mit 6 Konstruktionen mit BA und 6 mit BEI. Jede experimentelle Liste 12 Füller Elemente hinzufügen und die Ziel- und Füllstoff Versuche in einer zufälligen Reihenfolge anordnen. Nach dem Zufallsprinzip weisen Sie die Teilnehmer der beiden Listen.

4. Versuchsdurchführung

  1. Eyetracking-Verfahren.
    1. Laden Sie die Teilnehmer bequem vor dem Monitor von der remote Eyetracker sitzen. Legen Sie den Abstand zwischen den Teilnehmern Augen und dem Monitor ca. 60 cm. Perform Kalibrierung und Validierung Standardverfahren mit der Frage der Teilnehmer auf einem Raster von fünf Fixierung Ziele in zufälliger Folge zu fixieren.
    2. Präsentieren Sie die Teilnehmer mit einem gesprochenen Satz während sie ein visuelles Bild zu sehen sind wie in den standard Bildwelt Paradigma10,44. Die Option monokularen Eye Tracking durch die Verfolgung des Auges, das auf der gleichen Seite wie der Beleuchtung des Eye-Trackers ist. Aufzeichnen des Teilnehmers Augenbewegungen mit dem Eyetracker.
      Hinweis: In der vorliegenden Studie verwendete Eye-Tracker ermöglicht remote Eye Tracking mit einer Sampling-Rate von 500 Hz.
  2. Test- und Messgeräte.
    1. Testen Sie die Teilnehmer einzeln. Teilen Sie einfach die Teilnehmer mit den gesprochenen Sätzen zu hören, während sie die Bilder anzeigen. Fragen Sie ein Experimentator, den Teilnehmer auf dem Computer zu überwachen und zu stehen hinter des Teilnehmers und Ruhe sanft ihre Hände auf die Teilnehmer Schultern, plötzliche Bewegungen des Teilnehmers zu minimieren.
    2. Messen des Teilnehmers Augenbewegungen, die als automatische Reaktionen auf den sprachlichen Input mit dem Eyetracker entstehen.
      Hinweis: Die Aufgabe fragt nicht Teilnehmer zu bewussten Entscheidungen über die gesprochenen Sätze um ihre rechnerische Belastung zu minimieren. Der Eye-Tracker speichert automatisch die Augenbewegungen.
    3. Überwachung während des Tests: Verwenden Sie den live Viewer-Modus auf dem Computerbildschirm, ausgestellt von der Eye-Tracker während des Tests, um der Teilnehmer sieht Verhalten zu beobachten. Fragen des Experimentators, der Erhebung von Daten über die live Viewer-Modus der Experimentator signalisieren, wer hinter der Teilnehmer steht, den Teilnehmer neu auszurichten, wenn seine oder ihre Augen Blick aus dem Computerbildschirm wandert überwacht.

5. Datenverarbeitung und-Analyse

  1. Code der TeilnehmerInnen Fixierungen in zwei Interessengebiete. Daten-Viewer verwenden, um die zwei Interessengebiete zeichnen: BA-Ziel-Event-Bereich und BEI den Zielgruppen-Event-Bereich (siehe Abbildung 1). Open Data Viewer. Wählen Sie eines der Interesse Bereich Form Symbole auf der Symbolleiste. Verwenden Sie die Maus auf ein Feld rund um die Region zu ziehen als ein Interessengebiet definieren möchten. Sicherungsbereich Interesse im Ordner "Interesse Bereich festlegen". Zinsbereich auf andere Bilder anwenden.
    Hinweis: Die abgebildete Ereignis im oberen Bereich der Abbildung 1 entspricht des BA-Bau, damit die BA-Ziel-Ereignis und das Ereignis dargestellt im unteren Panel Spiele Abbildung 1b, daher das BEI Zielereignis. Die Software zur Kodierung verwendet ist Daten-Viewer, die mit der Eye-Tracker in der Studie verwendeten kommt. Andere Daten-Analyse-Software ist auch verfügbar.
  2. Analysieren Sie die Auge Blickmustern mit Daten-Viewer.
    1. Open Data Viewer. Wählen Sie die Probe Bericht Funktion aus dem Menü, das Zeitfenster für die Analyse (z. B. alle 200 ms für das Zeitfenster in der vorliegenden Studie) festlegen. Verwenden Sie die gleiche Funktion, Zeitschloss die Fixierung Proportionen im Bereich Interesse auf den Ausbruch des Markers für jeden Versuch. Exportieren Sie die raw-Daten in eine Excel-Datei mit der Exportfunktion aus dem Menü.
    2. Verwenden Sie die Excel-Funktionen, um die Fixierung Proportionen nach Ausbruch der Marker für jeden Bereich im Durchschnitt. Verwenden Sie die Excel-Funktionen, um die Fixierung Proportionen in jedem Zeitfenster von 200 ms über einen Zeitraum von 5200 ms (die mittlere Länge des Ziels Sätze + 200 ms) zu berechnen aus dem Beginn der Marker für die beiden Bereiche. Das Auge-Bewegungsdaten, Vertreter Ergebnisse unten detailliert zuweisen Sie lineare gemischt-Effekte Modelle.
      Hinweis: Die Verwendung von 200 ms als ein Zeitfenster basiert auf dem Standardverfahren für Kind Auge Blick Datenanalyse in der Literatur12,13,18,19,45, 46,47, und es wird allgemein angenommen, dass es ca. 200 ms braucht, um die Auswirkungen von linguistischen Markierungen am Auge Bewegungen48beobachten.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Die vorliegende Studie nutzt Minimalpaare wie Beispiele 1a und 1 b um zu untersuchen, ob und wie schnell können Kinder mit Autismus Ereignisinformationen in zwei morphologische Marker während Echtzeit-Satz Verständnis kodiert. Es wurde vorausgesagt, dass wenn sie schnell und effektiv Ereignisinformationen in beiden Marker während Echtzeit-Satz Verständnis verwenden können, dann sie mehr bei der BA-Ziel-Veranstaltung beim BA hören als wenn Anhörung BEI aussehen sollte. Auch sollten sie mehr auf das at-Zielereignis fixieren, nach dem anhören BEI als nach dem Anhören der BA.

Der Vergleich zwischen 5-Jahr-Olds mit Autismus und Gleichaltrigen Alter abgestimmt TD wird in die repräsentativen Ergebnisse präsentiert. Abbildung 2 zeigt die durchschnittliche Fixierung Proportionen des TD 5-jährigen auf der BA-Zielereignis (zentrale A) und at-Zielereignis (Gruppe B) in die beiden Bedingungen. Abbildung 3 fasst die durchschnittliche Fixierung Proportionen der 5-jährigen mit Autismus.

Die Zahlen zeigen, dass die Autismus-Gruppe angezeigt Auge Bewegungsmuster ähnlich wie der TD-Gruppe Alter abgestimmt. Beide Gruppen zeigten mehr Fixierungen auf BA-Ziel-Event bei der BA zu hören, als wenn Anhörung BEI, nach Beginn des Objekts NP und vor Beginn der das Adverb. Um genau zu sein, ereignete sich die Wirkung in der TD-Gruppe während des Fensters zwischen 1400 und 1600 ms (Abbildung 2), während der Effekt in der Autismus-Gruppe während des Fensters zwischen 1800 und 2000 ms (Abbildung 3) aufgetreten. Im Gegensatz dazu eine gegenüberliegende Auge Bewegungsmuster fand sich in der at-Ziel-Event für beide Gruppen: mehr Fixierungen auf das at-Zielereignis wurden beobachtet, wenn BEI hören als wenn hören BA, wieder, die nach Beginn des Objekts NP und vor Beginn der das Adverb.

Fixierung, die Proportionen wurden dann mit der empirischen Logit Formel49verwandelt: Wahrscheinlichkeit = ln[(y+0.5)/(n-y+0.5)], wo y die Anzahl der Aufzeichnungen in Bezug auf die Bereiche von Interesse in einem bestimmten zeitlichen Lagerplatz ist und n ist die Gesamtzahl der Fixierungen in diesem zeitlichen Lagerplatz. Lineare gemischt-Effekte Modelle wurden dann an die transformierten Daten angepasst. Statistische Modelle wurden für die beiden Gruppen getrennt basierend auf ihre Fixierungen im Bereich zwei Interesse in die kritischen Zeitfenster, wo Zeit und Marker Typ (BA versus at) als fixierte Effekte behandelt wurden berechnet. Für Teilnehmer und Artikel50wurden zufällige abfängt oder hängen. Die Anpassung wurde per Funktionen Lmer ab dem Paket lme4 (v1. 1-12)51 R (v3.2.5) Software Umwelt52durchgeführt. Ein Wald-Test wurde dann zur pWerte für die einzelnen feste Effekte zu berechnen.

Die Modellergebnisse für die TD 5-Year-Olds in den zwei Interessengebiete: im Eventbereich BA-Ziel hören BA verursacht die TD Kinder deutlich mehr als bei der Anhörung BEI dieser Veranstaltung anzusehen (β= 0,54, p <.001. Darüber hinaus gab es eine signifikante Wechselwirkung zwischen markierertyp und Zeit (β= 0,33, p <.001), angibt, die die Wahrscheinlichkeit der fixieren auf die BA-Ziel-Event im Laufe der Zeit nach dem Einsetzen der BA erhöht. Die TD-Kinder ausgestellt jedoch eine entgegengesetzte Auge Bewegungsmuster im Eventbereich BEI den Zielgruppen. Anhörung BEI ausgelöst mehr Fixierungen auf die at-Ziel-Event als Anhörung BA (β=-0.60, p <.001. Wieder gab es eine signifikante Wechselwirkung zwischen markierertyp und Zeit (β=-0.21, p <.001), vorgeschlagen, die im Laufe der Zeit nach dem Einsetzen der BA der TD-Gruppe Tendenz zu betrachten, das BEI Zielereignis abgelehnt.

Die Modellergebnisse für die 5-jährigen mit Autismus in den zwei Interessengebiete: die Autismus-Gruppe zeigten ähnliche Auge Bewegungsmuster. Mündlichen Verhandlung BA ausgelöst mehr Fixierungen auf dem BA-Ziel-Event als Anhörung BEI (β= 0,50, p <.001. Anhörung BEI ausgelöst mehr schaut das BEI Zielereignis als Anhörung BA (β=-0.54, p <.001. Wie der TD-Gruppe stellte die Autismus-Gruppe signifikante Wechselwirkungen in beiden Bereichen Interesse. Sowohl das BA-Target Event at-Zielgebieten, die Kinder mit Autismus angezeigt eine signifikante Wechselwirkung zwischen markierertyp und Zeit (β= 0,15, p <.01 im Ereignis BA-Zielgebiet; β=-0.16, p <.01 in der BEI-target-Event-Bereich).

Insgesamt belegen die Auge Muster ausgestellt von der 5-jährigen mit Autismus, die sie zur Nutzung der Veranstaltungsinformationen codiert in zwei morphologische Marker schnell und effektiv in Echtzeit-Satz verstehen konnten. Die Ergebnisse zeigen, dass die aufgezeichneten Augenbewegungen als automatische Reaktionen auf den sprachlichen Input sensiblen Maßnahmen Satz Verständnis Fähigkeiten in TD Kinder und Kinder mit Autismus.

Figure 1
Abbildung 1 : Beispiel visuelles Bild. (A) zeigt ein Ereignis an BA-Ziel. (B) darstellt BEI Zielereignis. Diese Zahl wurde mit freundlicher Genehmigung von Zhou und Ma (2018)19nachgedruckt. Bitte klicken Sie hier für eine größere Version dieser Figur.

Figure 2
Abbildung 2 : Durchschnittliche Fixierung Proportionen von Marker Ausbruch unter beiden Bedingungen in TD 5-Year-Olds. (A) zeigt die Fixierung Proportionen auf das BA-Zielereignis. (B) zeigt die Fixierung Proportionen auf die at-Ziel-Event. Bitte klicken Sie hier für eine größere Version dieser Figur.

Figure 3
Abbildung 3Durchschnittliche Fixierung Proportionen von Marker Ausbruch unter beiden Bedingungen in 5-jährigen autistisches. (A) zeigt die Fixierung Proportionen auf das BA-Zielereignis. (B) zeigt die Fixierung Proportionen auf die at-Ziel-Event. Bitte klicken Sie hier für eine größere Version dieser Figur.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

In der aktuellen Studie präsentieren wir eine Eyetracking-Paradigma, die direkt und effektiv die Satz-Verständnis-Fähigkeiten von Kindern mit Autismus einschätzen kann. Wir fanden, dass 5-jährige Kinder mit Autismus, wie ihre Altersgenossen Alter abgestimmt TD Auge Blickmustern ausgestellt, die effektive und schnelle Nutzung der sprachlichen Signale in Echtzeit-Satz Verständnis widerspiegeln.

Die Ergebnisse belegen, dass Eye-Tracking (insbesondere die visuelle Welt-Paradigma) ein sensibler Maß für Echtzeit-Satz Verständnis bei Kindern mit Autismus ist. Im Vergleich zu offline-Methoden, hat das Paradigma mehrere Vorteile. Erstens ist es empfindlich auf den zeitlichen Verlauf des Satzes verstehen. Zweitens es minimiert die Aufgabe und Anforderungen der Kommunikation beteiligt, so ist eine besser geeignete Methode, die mit Kindern ausstellenden herausfordernden Verhaltens Funktionen verwendet werden kann. Drittens zeichnet sie einfach Augenbewegungen als automatische Reaktionen auf sprachlichen Input ungefragt Teilnehmer bewusst Urteile über den Eingang, die rechnerische Belastung der Teilnehmer erheblich zu verringern.

Die visuelle Welt Paradigma ist eine Verknüpfung Annahme zugrunde, dass Augenbewegungen in die visuelle Welt der Echtzeit-Verarbeitung von gleichzeitigen sprachliche Reize synchronisiert werden. Eine effektive Verständnis Sprachstudium mit dem Paradigma der visuellen Welt erfordert daher eine enge Zuordnung zwischen Auge Blickmustern der visuellen Welt und referenzielle Verarbeitung der gesprochenen Sprache. Um eine enge Zuordnung zwischen den beiden zu gewährleisten, ist es wichtig, zuerst die visuelle Reize in einer Weise so entwerfen, dass Augenbewegungen in visuelle Bilder spiegeln nur die Prozesse, die zugrunde liegende Verständnis von der gesprochenen Sprache und, dass andere Faktoren, die beeinflussen können Teilnehmer Augenbewegungen sind gut unter Kontrolle. Zweitens ist es wichtig, Zeitschloss Teilnehmer Augenbewegungen, die zum Ausbruch einer kritischen linguistische Markierung in der gesprochenen Sprache, und um sicherzustellen, dass jedes Element und Grenzen der gesprochenen Sprachelemente für spätere Analysen eindeutig identifiziert werden können.

Die visuelle Welt Paradigma hat erfolgreich zur TD Kinder sprachlichen Fähigkeiten zu testen. Die vorliegende Studie untersucht das Potenzial der visuellen Welt Studien auf Sprachverständnis bei Kindern im Vorschulalter mit Autismus. Wie besprochen, liefern diese Ergebnisse Beweise für die Gültigkeit und die Empfindlichkeit des Paradigmas testen Sprachkenntnisse bei Kindern mit Autismus. Die Ergebnisse laden auch Fragen rund um die Sprachfähigkeiten Verständnis von Kindern mit Autismus zu überdenken. Wie besprochen, scheint frühere Untersuchungen darauf hin, dass die Satz-Verständnis-Fähigkeiten von Kindern mit Autismus stark beeinträchtigt werden könnte; jedoch, wie bereits von Kasari Et Al.27 und Plesa-Skwerer Et Al.29, es ist oft schwierig die Verständnis-Fähigkeiten von Kindern mit Autismus mit traditionellen Methoden wie standardisierte Tests oder anderen offline-Aufgaben, zu bewerten, weil diese Aufgaben erfordern hohe Resonanz Forderungen oder Interaktionen mit den Experimentatoren; Infolgedessen könnte dies besondere Schwierigkeiten für Kinder mit Autismus. Mit dem visuellen Welt Paradigma, zeigt die vorliegende Studie zum ersten Mal, dass wenn geringe Anforderungen der Aufgabe und Kommunikation beteiligt sind, Kleinkinder mit Autismus sprachliche Hinweise während der Echtzeit-Satz Verständnis effektiv und schnell nutzen können. Ihren Satz Verständnis Fähigkeiten sind weit besser als von früheren Untersuchungen vorgeschlagen wurde. Die Ergebnisse belegen auch, dass arme Verständnis Leistung von Kindern mit Autismus in bisherigen Untersuchungen vielleicht aufgrund mangelnder sozialer Reaktionsfähigkeit und die hohen Aufgabe und Kommunikation Anforderungen an diesen traditionellen Aufgaben beteiligt ist.

Die visuelle Welt Paradigma kann systematisch angewendet werden, um Auge Blickmustern zugeordnete Sprachverarbeitung bei Autismus, die uns, besser helfen verstehen, die Art des Satzes Verarbeitung Mechanismen bei Autismus sowie dazu beitragen, frühzeitig zu erkennen klinische Marker für Autismus.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Die Autoren haben nichts preisgeben.

Acknowledgments

Diese Arbeit wurde von der National Social Science Foundation of China [16BYY076], Peng Zhou und der Wissenschaft Stiftung der Beijing Language and Cultural University unter die grundlegenden Forschungsmittel für die zentralen Universitäten [15YJ050003] finanziert. Die Autoren sind dankbar für die Kinder, Eltern und Lehrer an der Enqi Autismus Plattform und Taolifangyuan Kindergarten in Peking, China, für ihre Unterstützung bei der Durchführung der Studiums.

Materials

Name Company Catalog Number Comments
EyeLink 1000 plus eye tracker  SR Research Ltd.  The EyeLink 1000 plus allows remote eye tracking, without a head support. The eye tracker provides information about the participant’s point of gaze at a sampling rate of 500 Hz, and it has accuracy of 0.5 degrees of visual angle. 

DOWNLOAD MATERIALS LIST

References

  1. Altmann, G. T., Kamide, Y. Incremental interpretation at verbs: Restricting the domain of subsequent reference. Cognition. 73 (3), 247-264 (1999).
  2. Altmann, G. T., Kamide, Y. The real-time mediation of visual attention by language and world knowledge: Linking anticipatory (and other) eye movements to linguistic processing. Journal of Memory and Language. 57 (4), 502-518 (2007).
  3. DeLong, K. A., Urbach, T. P., Kutas, M. Probabilistic word pre-activation during language comprehension inferred from electrical brain activity. Nature neuroscience. 8 (8), 1117-1121 (2005).
  4. Kamide, Y., Altmann, G. T., Haywood, S. L. The time-course of prediction in incremental sentence processing: Evidence from anticipatory eye movements. Journal of Memory and Language. 49 (1), 133-156 (2003).
  5. Knoeferle, P., Crocker, M. W., Scheepers, C., Pickering, M. J. The influence of the immediate visual context on incremental thematic role-assignment: Evidence from eye-movements in depicted events. Cognition. 95 (1), 95-127 (2005).
  6. Knoeferle, P., Kreysa, H. Can speaker gaze modulate syntactic structuring and thematic role assignment during spoken sentence comprehension. Frontiers in Psychology. 3, 538 (2012).
  7. Knoeferle, P., Urbach, T. P., Kutas, M. Comprehending how visual context influences incremental sentence processing: Insights from ERPs and picture-sentence verification. Psychophysiology. 48 (4), 495-506 (2011).
  8. Pickering, M. J., Traxler, M. J., Crocker, M. W. Ambiguity resolution in sentence processing: Evidence against frequency-based accounts. Journal of Memory and Language. 43 (3), 447-475 (2000).
  9. Staub, A., Clifton, C. Syntactic prediction in language comprehension: Evidence from either... or. Journal of Experimental Psychology: Learning, Memory, and Cognition. 32 (2), 425-436 (2006).
  10. Tanenhaus, M., Spivey-Knowlton, M., Eberhard, K., Sedivy, J. Integration of visual and linguistic information in spoken language comprehension. Science. 268 (5217), 1632-1634 (1995).
  11. Van Berkum, J. J., Brown, C. M., Zwitserlood, P., Kooijman, V., Hagoort, P. Anticipating upcoming words in discourse: Evidence from ERPs and reading times. Journal of Experimental Psychology: Learning, Memory, and Cognition. 31 (3), 443-467 (2005).
  12. Choi, Y., Trueswell, J. C. Children's (in) ability to recover from garden paths in a verb-final language: Evidence for developing control in sentence processing. Journal of Experimental Child Psychology. 106 (1), 41-61 (2010).
  13. Huang, Y., Zheng, X., Meng, X., Snedeker, J. Children's assignment of grammatical roles in the online processing of Mandarin passive sentences. Journal of Memory and Language. 69 (4), 589-606 (2013).
  14. Lew-Williams, C., Fernald, A. Young children learning Spanish make rapid use of grammatical gender in spoken word recognition. Psychological Science. 18 (3), 193-198 (2007).
  15. Sekerina, I. A., Trueswell, J. C. Interactive processing of contrastive expressions by Russian children. First Language. 32 (1-2), 63-87 (2012).
  16. Trueswell, J. C., Sekerina, I., Hill, N. M., Logrip, M. L. The kindergarten-path effect: Studying on-line sentence processing in young children. Cognition. 73 (2), 89-134 (1999).
  17. Van Heugten, M., Shi, R. French-learning toddlers use gender information on determiners during word recognition. Developmental Science. 12 (3), 419-425 (2009).
  18. Zhou, P., Crain, S., Zhan, L. Grammatical aspect and event recognition in children's online sentence comprehension. Cognition. 133 (1), 262-276 (2014).
  19. Zhou, P., Ma, W. Children's use of morphological cues in real-time event representation. Journal of Psycholinguistic Research. 47 (1), 241-260 (2018).
  20. Eigsti, I. M., Bennetto, L., Dadlani, M. B. Beyond pragmatics: Morphosyntactic development in autism. Journal of Autism and Developmental Disorders. 37 (6), 1007-1023 (2007).
  21. Kjelgaard, M. M., Tager-Flusberg, H. An investigation of language impairment in autism: Implications for genetic subgroups. Language and Cognitive Processes. 16 (2-3), 287-308 (2001).
  22. Tager-Flusberg, H. Risk factors associated with language in autism spectrum disorder: clues to underlying mechanisms. Journal of Speech, Language, and Hearing Research. 59 (1), 143-154 (2016).
  23. Tager-Flusberg, H., Kasari, C. Minimally verbal school-aged children with autism spectrum disorder: the neglected end of the spectrum. Autism Research. 6 (6), 468-478 (2013).
  24. Tek, S., Mesite, L., Fein, D., Naigles, L. Longitudinal analyses of expressive language development reveal two distinct language profiles among young children with autism spectrum disorders. Journal of Autism and Developmental Disorders. 44 (1), 75-89 (2014).
  25. Wittke, K., Mastergeorge, A. M., Ozonoff, S., Rogers, S. J., Naigles, L. R. Grammatical language impairment in autism spectrum disorder: Exploring language phenotypes beyond standardized testing. Frontiers in Psychology. 8, 532 (2017).
  26. Hudry, K., Leadbitter, K., Temple, K., Slonims, V., McConachie, H., Aldred, C., et al. Preschoolers with autism show greater impairment in receptive compared with expressive language abilities. International Journal of Language & Communication Disorders. 45 (6), 681-690 (2010).
  27. Kasari, C., Brady, N., Lord, C., Tager-Flusberg, H. Assessing the minimally verbal school-aged child with autism spectrum disorder. Autism Research. 6 (6), 479-493 (2013).
  28. Luyster, R. J., Kadlec, M. B., Carter, A., Tager-Flusberg, H. Language assessment and development in toddlers with autism spectrum disorders. Journal of Autism and Developmental Disorders. 38 (8), 1426-1438 (2008).
  29. Plesa-Skwerer, D., Jordan, S. E., Brukilacchio, B. H., Tager-Flusberg, H. Comparing methods for assessing receptive language skills in minimally verbal children and adolescents with Autism Spectrum Disorders. Autism. 20 (5), 591-604 (2016).
  30. Boucher, J. Research review: Structural language in autism spectrum disorder-characteristics and causes. Journal of Child Psychology and Psychiatry. 53 (3), 219-233 (2012).
  31. Eigsti, I. M., de Marchena, A. B., Schuh, J. M., Kelley, E. Language acquisition in autism spectrum disorders: A developmental review. Research in Autism Spectrum Disorders. 5 (2), 681-691 (2011).
  32. Howlin, P. Outcome in high-functioning adults with autism with and without early language delays: Implications for the differentiation between autism and Asperger syndrome. Journal of Autism and Developmental Disorders. 33 (1), 3-13 (2003).
  33. Koning, C., Magill-Evans, J. Social and language skills in adolescent boys with Asperger syndrome. Autism: The International Journal of Research and Practice. 5 (1), 23-36 (2001).
  34. Kover, S. T., Haebig, E., Oakes, A., McDuffie, A., Hagerman, R. J., Abbeduto, L. Sentence comprehension in boys with autism spectrum disorder. American Journal of Speech-Language Pathology. 23 (3), 385-394 (2004).
  35. Perovic, A., Modyanova, N., Wexler, K. Comprehension of reflexive and personal pronouns in children with autism: A syntactic or pragmatic deficit. Applied Psycholinguistics. 34 (4), 813-835 (2013).
  36. Rapin, I., Dunn, M. Update on the language disorders of individuals on the autistic spectrum. Brain Development. 25 (3), 166-172 (2003).
  37. Tager-Flusberg, H. Sentence comprehension in autistic children. Applied Psycholinguistics. 2 (1), 5-24 (1981).
  38. Rutter, M., Maywood, L., Howlin, P. Language delay and social development. Specific speech and language disorders in children: Correlates, characteristics, and outcomes. Fletcher, P., Hall, D. , Whurr. London. (1992).
  39. Tager-Flusberg, H. The challenge of studying language development in autism. Methods for studying language production. Menn, L., Ratner, N. B. , Erlbaum. Nahwah, NJ. (2000).
  40. American Psychiatric Association. Diagnostic and statistical manual of mental disorders, 4th edition, text revision (DSM-IV-TR). American Psychiatric Association. , Washington, DC. (2000).
  41. American Psychiatric Association. Diagnostic and statistical manual of mental disorders, 5th edition (DSM-5). American Psychiatric Association. , Washington, DC. (2013).
  42. Lord, C., Rutter, M., DiLavore, P. C., Risi, S. Autism diagnostic observation schedule. Western Psychological Services. , Los Angeles, CA. (1999).
  43. Li, Y., Zhu, J. Wechsler Preschool and Primary Scale of Intelligence™-IV CN) [WPPSI-IV (CN)]. Zhuhai King-may Psychological Measurement Technology Development Co., Ltd. , Zhuhai. (2014).
  44. Cooper, R. M. The control of eye fixation by the meaning of spoken language: A new methodology for the real-time investigation of speech perception, memory, and language processing. Cognitive Psychology. 6 (1), 84-107 (1974).
  45. Huang, Y., Snedeker, J. Semantic meaning and pragmatic interpretation in five-year olds: Evidence from real time spoken language comprehension. Developmental Psychology. 45 (6), 1723-1739 (2009).
  46. Snedeker, J., Yuan, S. Effects of prosodic and lexical constraints on parsing in young children (and adults). Journal of Memory and Language. 58 (2), 574-608 (2008).
  47. Zhou, P., Crain, S., Zhan, L. Sometimes children are as good as adults: The pragmatic use of prosody in children's on-line sentence processing. Journal of Memory and Language. 67 (1), 149-164 (2012).
  48. Matin, E., Shao, K. C., Boff, K. R. Saccadic overhead: Information-processing time with and without saccades. Perception & Psychophysics. 53 (4), 372-380 (1993).
  49. Barr, D. J. Analyzing 'visual world' eyetracking data using multilevel logistic regression. Journal of Memory and Language. 59 (4), 457-474 (2008).
  50. Baayen, R. H., Davidson, D. J., Bates, D. M. Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language. 59 (4), 390-412 (2008).
  51. Bates, D. M., Maechler, M., Bolker, B. lme4: Linear mixed-effects models using S4 classes. , Available from: http://cran.r-project.org/web/packages/lme4/index.html (2013).
  52. R Development Core Team. R: A Language and Environment for Statistical Computing. , Vienna. Available from: http://www.r-project.org (2017).

Tags

Verhalten Ausgabe 140 Eye Tracking visuelle Welt Paradigma sprachliche Hinweise morphologische Marker Kindersprache Echtzeit-Satz Verständnis
Mit Hilfe der visuellen Welt Paradigma Satz Verständnis in Mandarin-sprachigen Kindern mit Autismus zu studieren
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Zhou, P., Ma, W., Zhan, L., Ma, H.More

Zhou, P., Ma, W., Zhan, L., Ma, H. Using the Visual World Paradigm to Study Sentence Comprehension in Mandarin-Speaking Children with Autism. J. Vis. Exp. (140), e58452, doi:10.3791/58452 (2018).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter