Bewusste und Nichtbewusste Darstellungen von Emotional Faces in Asperger-Syndrom

JoVE Journal
Behavior

Your institution must subscribe to JoVE's Behavior section to access this content.

Fill out the form below to receive a free trial or learn more about access:

 

Summary

Ein EEG experimentelle Protokoll ist so konzipiert, das Zusammenspiel zwischen bewussten und nicht-bewussten Darstellungen von emotionalen Gesichter bei Patienten mit Asperger-Syndrom zu klären. Die Technik legt nahe, dass Patienten mit Asperger-Syndrom haben Defizite in nicht-bewusste Darstellung der emotionalen Gesichter, aber in der bewussten Darstellung mit gesunden Kontrollen vergleichbare Leistung haben.

Cite this Article

Copy Citation | Download Citations | Reprints and Permissions

Chien, V. S. C., Tsai, A. C., Yang, H. H., Tseng, Y. L., Savostyanov, A. N., Liou, M. Conscious and Non-conscious Representations of Emotional Faces in Asperger's Syndrome. J. Vis. Exp. (113), e53962, doi:10.3791/53962 (2016).

Please note that all translations are automatically generated.

Click here for the english version. For other languages click here.

Abstract

Mehrere Bildgebungsstudien haben ergeben , dass die niedrige räumliche Frequenzen in einer emotionalen Gesicht vor allem die Amygdala aktiviert, pulvinar und Colliculus superior vor allem mit ängstlichen Gesichtern 1-3. Diese Bereiche bilden die limbischen Struktur in nicht-bewusste Wahrnehmung von Emotionen und kortikale Aktivität modulieren entweder direkt oder indirekt 2. Im Gegensatz dazu ist die bewusste Darstellung von Emotionen stärker ausgeprägt in der anterioren cingulären, präfrontalen Kortex und somatosensorischen Kortex für 3,4 in den Gesichtern freiwillig die Aufmerksamkeit auf Details lenken. Asperger-Syndrom (AS) 5,6 stellt eine atypische psychische Störung , die sensorischen, affektiven und kommunikativen Fähigkeiten auswirkt, ohne mit der normalen sprachlichen Fähigkeiten und intellektuellen Fähigkeiten zu stören. Mehrere Studien haben gezeigt, dass funktionelle Defizite in der neuronalen Schaltkreise wichtig für die Gesichts-Erkennung von Emotionen teilweise sozialen Kommunikationsfehler erklären kannPatienten mit AS 7-9. Um das Zusammenspiel zwischen bewussten und nicht-bewussten Darstellungen von emotionalen Gesichter im AS, ein EEG experimentelle Protokoll ist so konzipiert, mit zwei Aufgaben, die Emotionalität Auswertung von entweder Foto oder Strichzeichnung Gesichter zu klären. Eine Pilotstudie ist für die Auswahl der Gesichtsstimuli eingeführt, die die Unterschiede in Reaktionszeiten und Noten Gesichts Emotionen zwischen den pretested Patienten mit AS und IQ / geschlechts gesunden Kontrollen zugeordnet minimieren. Die Informationen aus den pretested Patienten wurde verwendet, um das Punktesystem für die Emotionalität Auswertung zu entwickeln. Die Erforschung Gesichts Emotionen und visuelle Reize mit unterschiedlichen räumlichen Frequenzgehalt hat discrepant Erkenntnisse erreicht über die demografischen Merkmale der Teilnehmer abhängig und Aufgabe erfordert 2. Das experimentelle Protokoll soll mit AS Defizite bei Patienten zu klären Gesichter bei der Verarbeitung emotional, wenn im Vergleich zu gesunden Kontrollen für den Faktor Steuerns in keinem Zusammenhang mit Anerkennung von Gesichts Emotionen wie Aufgabenschwierigkeit, IQ und Geschlecht.

Introduction

Facial Emotionserkennung ist eine der wichtigsten Hirnprozesse in sozialen Kommunikation tätig. Eine Vielzahl von psychischen Störungen sind Probleme mit expliziten Erkennung von Gesichts Emotionen im Zusammenhang mit 4-6. Ein Foto eines Gesichts enthält ein Spektrum von räumlichen Informationen, die entweder für die hohe räumliche Frequenz (HSF) oder niedrige Raumfrequenz (LSF) Inhalt gefiltert werden können. HSF ist sehr detaillierte Teile eines Bildes im Zusammenhang, wie die Kanten eines Gesichts, während LSF zu gröberen verwandt ist oder weniger gut definierte Teile, wie eine ganzheitliche Gesicht mit LSF Inhalt 7. Jede Gesichtserkennung Aufgabe induziert gleichzeitig bewusst und nicht-bewussten Prozesse 8-12, und die Beteiligung der nicht-bewussten Prozess tritt in der 150-250 ms nach dem Einsetzen Intervall oder sogar noch früher 13. Bei gesunden Kontrollen ist die nicht-bewussten Prozess in der Regel schneller als der bewussten Prozess 14,15. Mehrere Bildgebungsstudien haben ergeben, dassdie LSF in einer Gesichts Reiz (oder motivationally wichtige Impulse) aktiviert hauptsächlich die Amygdala, pulvinar und Colliculus superior vor allem mit ängstlichen Gesichtern 3,16. Diese Bereiche bilden die limbischen Struktur in nicht-bewusste Wahrnehmung von Emotionen und kortikale Aktivität modulieren entweder direkt oder indirekt 1. Im Gegensatz dazu ist bei Bewusstsein Darstellung von Emotionen stärker ausgeprägt in der anterioren cingulären, präfrontalen Kortex und somatosensorischen Kortex für die freiwillige Liebe zum Detail im Gesicht 9,17,18 lenken.

Asperger-Syndrom (AS) 19,20 stellt eine atypische psychische Störung , die sensorischen, affektiven und kommunikativen Fähigkeiten auswirkt, ohne mit der normalen sprachlichen Fähigkeiten und intellektuellen Fähigkeiten zu stören. Mehrere Studien haben gezeigt , dass funktionelle Defizite in der neuronalen Schaltkreise wichtig für die Gesichts - Erkennung von Emotionen kann zum Teil der sozialen Kommunikationsfehler in AS 21-25 erklären.Verhaltensstörungen bei Kindern mit AS beobachtet wird, kann in den ersten drei Lebensjahren 26, ein Zeitraum , in dem ihre freiwillige (oder bewusst) die Kontrolle über Verhalten diagnostiziert werden nicht vollständig 27 entwickelt. Bei Erwachsenen mit AS können die Verhaltensstörungen für die Regulierung durch die Aufmerksamkeit 28 kompensiert werden. Schwierigkeiten bei der Verarbeitung Details innerhalb eines bestimmten räumlichen Frequenzbereich zu einer Störung in verschiedenen Informationsverarbeitungsstufen anzeigen kann. Bisher hat keine Studie adressiert direkt evozierte Potentiale und oszillierende Aktivität bei Patienten mit AS während Gesichtsemotionserkennung Gesichtsstimuli in spezifischen räumlichen Frequenzbereiche beteiligt sind. Es ist wichtig, die Funktionsbahn bei Patienten mit AS, wenn sie mit gesunden Kontrollen bei der Verarbeitung Gesichts Stimuli mit unterschiedlichen räumlichen Frequenzinhalte durch die Steuerung für Aufgabenanforderungen und demografische Effekte wie Geschlecht und IQ im Vergleich zu untersuchen.

Um die Inter zu klärenspielen zwischen bewussten und nicht-bewussten Darstellungen von emotionalen Gesichtern, eine experimentelle EEG-Protokoll für den Vergleich von Gehirn konzipiert evozierte Potentiale und Oszillationen zwischen Patienten mit AS und IQ / geschlechts gesunden Kontrollen. Eine Kohorte von Pilot Teilnehmer wurde für die Unterstützung bei der Auswahl der experimentellen Stimuli und die Entwicklung eines Scoring-System, um vor dem EEG Experiment rekrutiert mit AS eine Bewertung der Leistung bei Patienten zu erleichtern. Das Protokoll besteht aus zwei Aufgaben, die Emotionalität Auswertung von entweder Foto oder Strichzeichnung Gesichter. Die Unterschiede zwischen den beiden Gruppen können durch Berechnen ERPs und ereignisbezogenen spektralen Störungen (ERSPs) beurteilt werden. Im nächsten Abschnitt werden die Einzelheiten des experimentellen Protokolls erarbeitet auf, einschließlich der Pilotstudie und EEG-Datenverarbeitung / Analyseverfahren, die von den wichtigsten Analyseergebnisse gefolgt. Schließlich sind die entscheidenden Schritte in dem Protokoll und seine Bedeutung in Bezug auf bestehendeVerfahren diskutiert. Die Begrenzung und mögliche Verlängerung des Protokolls bei Patienten zu verwenden, um mit anderen emotionalen Störungen heraus auch darauf sind.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Ethikerklärung: Verfahren im Zusammenhang mit menschlichen Teilnehmer wurden von den menschlichen Teilnehmer Forschungsethikkommission / Institutional Review Board an der Academia Sinica, Taiwan genehmigt.

1. Stimuli und experimentelle Programmvorbereitung

  1. Bereiten Sie einen Pool von mehr als 60 emotionale Gesicht Fotografien 29 kategorisiert in drei Gesichtsausdrücke (wütend, glücklich, und neutral). Verwenden Sie Grafik - Software zur Ausblendung Haar und Ohrteile in den Fotos mit schwarzem Hintergrund , wie in 1A gezeigt , so dass die Teilnehmer auf die Gesichtszüge auf den Fotos konzentrieren können.
    1. Öffnen Sie ein Foto in der Grafiksoftware. Verwenden Sie die Auswahl Toolbox eine elliptische Region zu ziehen und die Region, Größe anpassen, so dass die Ohren und die meisten Haare nicht in der Ellipse fallen.
    2. Kehren Sie die ausgewählte Region. Klicken Sie auf "Löschen", um den unerwünschten Bereich der Fotografie zu entfernen und ersetzen Sie es mit dem schwarzen Hintergrundfarbe.

Abbildung 1
Abbildung 1. Beispiele für emotionale Gesichtsstimuli. (A) Foto Gesichter , wo das Haar und Ohren in der schwarzen Hintergrundfarbe ausgeblendet wurden, und (B) Strichzeichnung Gesichter , die von (A) von Grafik - Software bearbeitet werden. Die Gesichter zeigen neutral, glücklich und wütend Gefühle jeweils von oben nach unten Reihen. Bitte hier klicken , um eine größere Version dieser Figur zu sehen.

  1. Erstellen Sie eine Pilotstudie. Rekrutieren Pilotteilnehmer für geeignete Stimuli aus dem Foto-Pool auswählen.
    Hinweis: Die Pilotteilnehmer nicht im EEG Experiment teilnehmen.
    1. Konfigurieren Sie den Reiz Präsentationsprogramm mit dem ersten Computer-Bildschirm Beginn der Aufgabenanweisung präsentiert, gefolgt von 5 familiarization Studien. Beginnen Sie jeden Versuch mit einer Fixierung Kreuz, von einem Gesicht Reiz gefolgt, und durch eine Emotionalität Auswertung Aufgabe. Siehe Ergänzenden Code für ein Beispiel-Programmdatei.
      Hinweis: Die realen Pilotversuche folgen sofort die Einarbeitungsversuche durch Gesicht Fotos in zufälliger Reihenfolge aus dem Pool ausgewählt.
      1. Erstellen Sie ein Versuchsprogramm, einschließlich der Anweisung Bildschirmen und einem zentralen Blickfixierung Bildschirm. Erstellen Sie das Gesicht Stimulus - Bildschirm dargestellt , wie in Abbildung 2 durch die Fotogröße Konfiguration 18,3 x 24,4 cm 2 (Breite x Höhe) zu sein , mit schwarzen Hintergrundfarbe, da ein Computer - Bildschirm Größe 41 x 25,6 cm 2 mit einer Auflösung von 1.680 x 1.050. Siehe Ergänzenden Code für ein Beispiel-Programmdatei.
      2. Erstellen Sie ein Punktesystem für die Emotionalität Auswertung im Programm wie in Abbildung 3 dargestellt. Legen Sie eine horizontale Linie im Bereich von -100 bis +100 in einer kontinuierlichen Skala in der Mitte des Bildschirms withoukeinerlei tick-Markierungen, mit Ausnahme des zentralen und Endpunkten. Bereiten Sie das Programm so, dass die Teilnehmer frei die Emotionalität einer Fotografie Gesicht, indem Sie den Scoring-Cursor nach links für sehr wütend (-100) und auf der rechten Seite für sehr glücklich (100), und drücken Sie die Taste GO auswerten kann.
        Hinweis: Die Scoring-Linie ohne tick-Marken konzipiert ist, weil Patienten mit AS leicht platzieren Sie den Cursor zwischen Zecken während Emotionalität Auswertung stecken können. Daher ist eine kontinuierliche Skala für Patienten bevorzugt.
      3. Stellen Sie sicher , dass das Programm zeichnet Verhaltensergebnisse des Teilnehmers (zB Reaktionszeit und Emotionalität Scores), die als Kriterien verwendet werden , für Fotos aus dem Pool der Wahl (siehe Schritt 1.3.1).
    2. Recruit Pilotteilnehmer (5 Kontrolle und 5 AS Pilot Teilnehmer). Diagnostizieren klinischen Patienten nach Gillberg 30 und DSM-IV - Kriterien 26 und zu verwalten , um die klinische abgeleitet Kurzform von Wechslers Adult Intelligenzskala (WAIS-III) 31. Passen Sie die Regler auf AS Kollegen so nah wie möglich an das Geschlecht und auf verbale / Leistung IQ-Werte.
    3. Führen Sie das experimentelle Verfahren in der Pilotstudie für jeden einzelnen Teilnehmer. Nach der emotionalen Gesichtserkennung Aufgabe zu erledigen, interviewen jeden Piloten AS Teilnehmer über die angemessene Dauer der Zentralaugenfixierung und Stimuluspräsentation Perioden, Schwierigkeit der Aufgabe, die einfache Handhabung der Scoring-System und die maximale Anzahl der Versuche mit für das Halten seiner / ihrer Konzentration, basierend auf dem das Programm für den EEG Experiment umkonfiguriert werden (siehe Schritt 1.3.2)

Figur 2
Abbildung 2. Ein Screenshot eines Gesichts Reiz im Programm. Die Größe der Fläche ausgebildet ist , die Höhe des Bildschirms zu passen. Der leere Bereich wird mit der schwarzen Farbe ausgefüllt.laden / 53962 / 53962fig2large.jpg "target =" _ blank "> Bitte hier klicken, um eine größere Version dieser Figur zu sehen.

Figur 3
Abbildung 3. Ein Screenshot der Punktesystem für die Emotionalität Auswertung. Das Scoring - Bar ist so konzipiert , kein Häkchen haben. Der Teilnehmer muss die Maus ziehen , um die Punktzahl zu einer Fläche zugewiesen auszuwählen und die GO - Taste drücken Sie die Aufgabe zu beenden. Bitte hier klicken , um eine größere Version dieser Figur zu sehen.

  1. Programm für die Aufgabe 1: Foto-Session.
    1. Wählen Sie aus den Pool 30 Fotografien, bestehend aus 10 jeweils für glücklich, wütend und neutrale Mimik (5 männliche und 5 weibliche Gesichter für jede Art von Ausdrücken), die die meisten vergleichbaren mittleren Reaktionszeiten geben und bedeuten Emotionalität Scores zwischen 5 AS und 5 Kontrolle Pilotteilnehmer. Aktualisieren der experimentellen Programmkonfigurationen durch eine Rückkopplung von den Pilot Patienten enthalten, wie beispielsweise die optimale zentrale Blickfixierungszeit (dh 1,000 ms), Dauer der Stimuluspräsentation (dh 1,000 ms), Inter-Stimulus - Intervall (dh zufällig zugewiesen in -zwischen 4 und 7 sec), und das Ausmaß der Scoring - System (dh -100 bis 100). In fünf Einarbeitungs Studien vor der 30 experimentellen Studien im Programm.
      1. Ändern der Anzahl der Impulse und Zeitintervalle in einer externen Konfigurationstextdatei mit dem Versuchsprogramm zugeordnet ist.
        Hinweis: Die Textdatei kann geändert werden verschiedene experimentelle Bedingungen ohne Intervention von Software-Ingenieuren zu passen.
      2. Sie nicht die fünf Fotos für Einarbeitungs Studien zu den 30 ausgewählten Fotos zählen. Verwenden Sie nicht die EEGs und die aufgezeichneten Verhaltensdaten in Einarbeitungs Studien in der Datenanalyse.
  2. Programm foder Aufgabe 2: Line-Zeichnung Session.
    1. Erstellen Strichzeichnungsbilder der 35 Fotos (5 Einarbeitungs Versuche, 30 für experimentelle Studien), die in Aufgabe 1 durch die Kanten jedes Gesicht zu verfolgen. Verwenden Sie Grafik - Software , die Grauskala Fotos in schwarz-weiß Strichzeichnungen zu modifizieren , wie in 1B gezeigt.
      Hinweis: Die Schritte unten Foto-Bearbeitung ist eine der möglichen Lösungen für die Herstellung von Strichzeichnungen.
      1. In der Grafik-Software, stellen Sie die Helligkeit / Kontrast des Fotos, so dass die ursprüngliche Intensität Grauskala in den meisten Pixel in schwarz oder weiß fällt.
      2. Übernehmen "Skizze-Effekt" in der "Wirkung" oder "Filter" Menü der Software auf eine Fotografie Graustufen, so dass nur Kontur des hohen Teilortsfrequenz erhalten bleibt, und anwenden "Not-Effekt" die Ausdehnung der Konturlinien zu erhöhen .
      3. Verwenden Sie einen beliebigen Pinsel-Werkzeug, um die Konturen zu verbessern und einen Radiergummi-Werkzeug verwenden, umbereinigen unerwünschte Teile. Achten Sie darauf, wichtige Gesichtsmerkmale zu halten, indem sie hin und her zwischen dem ursprünglichen Foto und seine Strichzeichnung Gegenstück zu prüfen.
    2. Erstellen Sie eine Kopie des Programms der Aufgabe 1 in Schritt 1.3 ein Programm für die Aufgabe 2 und ersetzen Sie die 35 Fotografien in Aufgabe 1 mit den entsprechenden Strichzeichnungen zu erstellen.

2. EEG Aufnahmeverfahren

  1. Die Vorbereitungen
    1. Rekrutieren 10 gesunden Kontrollen und 10 Patienten mit AS für EEG-Experimente auf der Grundlage der Richtlinien der lokalen Menschen Teilnehmer Forschungsethikkommission / Institutional Review Board.
    2. Verabreichen Sie die Kurzform von WAIS-III 31 zu den Patienten mit AS einzeln vor den Experimenten, und die Kontrollen finden, der die Patienten also so gut wie möglich zu Gender und auf die mündliche / Leistung IQ - Werte.
  2. EEG-Aufnahme
    1. Setzen Sie die Teilnehmer in einem bequemen Sessel in einem gesunden insulated (schwach beleuchtet) Kammer und stellen Sie die Sitzposition, so dass der Computer-Bildschirm 60 cm vor dem Teilnehmer. Nach einem Tutorial auf dem experimentellen Verfahren, haben die Teilnehmer die Zustimmung Formulare ausfüllen zusammen mit ein paar Fragen über seine / ihre Händigkeit.
    2. Verwenden Sie eine EEG-Kappe mit 132 Ag / AgCl-Elektroden (einschließlich 122 10-10 System EEG und der bipolaren VEOG, HEOG, EKG, EMG-Elektroden, zusammen mit sechs Gesichtsmuskel-Kanäle) EEGs aufzuzeichnen. Schließen Sie den Deckel auf zwei 64-Kanal-Verstärker mit 0,1 bis 100 Hz analoge Bandpassfilter zu Roh-EEGs bei 1000 Hz Abtastrate zu digitalisieren.
    3. Den Standard-128-Kanal-EEG-Kappe auf jeden Kopf des Teilnehmers. Stellen Sie die Kappe , so dass die Elektrode mit "Referenz" an der "Cz" Position gebracht, die auf den vorderen / hinteren Mittellinie Landmarken relativ befindet (dh Mitte des nasion zu Inion Entfernung) und nach links / rechts Sehenswürdigkeiten ( das heißt, in der Mitte des linken / rechten tragis), gemäß der EEG international 10/10 System.
    4. Verwenden Sie vorsichtig mit einem stumpfen Nadel leitendes Gel in alle Elektroden zu injizieren. Rühren langsam mit der Nadel innerhalb der Elektrode gut Gel Kontakt zwischen der Kopfhaut und der Elektrode zu gewährleisten (dh die Impedanz unter 5 kOhm zu halten). überprüfen ständig den Zustand des Gels Kontakt an den markierten Elektroden "Referenz" und "Masse" auf der EEG-Kappe die Impedanzmessung, um sicherzustellen, korrekt ist.
      1. Beachten Sie die Elektrodenimpedanz durch die Elektrodenimpedanz Bildschirm durch die EEG - Aufnahme - Software unterstützt Anzeige (zB SCAN 4.5 in dieser Studie) , die in der Regel mit dem EEG - System geht. Auf dem Bildschirm werden die Elektroden in Farben dargestellt ist, und verschiedenen Farben die Pegel der Impedanz zeigen.
    5. Legen Sie eine HEOG Elektrode an der canthus eines Auges (positive Seite) und die zweite Elektrode an der canthus des anderen Auges (negative Seite), einer VEOG Elektrode oberhalb und die andere unterhalb der links Auge, bipolar EKG-Elektroden auf der Rückseite der linken und rechten Hand, und bipolare EMG-Elektroden in dem Bereich zwischen Daumen und Zeigefinger der rechten Hand und den sechs facial Elektroden rund um die Augenbrauen und die Wange.
    6. Nehmen Sie in einem Notebook jene schlechten Kanäle, in denen die Impedanz höher als 5 kOhm ist, oder direkt auf den Bildschirm zeigt Impedanz an allen Elektroden speichern. Verwenden Sie diese als zukünftige Referenz zum Verwerfen schlechten Kanäle in der Phase der EEG-Datenverarbeitung.
    7. Nehmen Sie Ruhezustand EEGs nach dem Teilnehmer anweist Augen für 12 min zu schließen. Während dieser Zeit überprüfen, doppelt die Qualität des Instant-EEG-Strom auf dem Bildschirm durch die EEG-Aufnahme-Software unterstützt gezeigt.
      Hinweis: Es sollte klar Alpha-Wellen in den Hinterhaupts Kanäle während des Augen-geschlossenen Zustand verteilt sein im Vergleich zu den Augen geöffneten Zustand. Wenn die Alpha-Wellen zu laut sind (die schlechten Kanäle zu ignorieren) oder verzerrt, kehren 2.2.4 zu treten und das Gel Kontakt einzustellen.
    8. Starten Sie die beiden experimentellen Aufgaben in einem ausgeglichen, um über die Teilnehmer. Nehmen Sie EEGs, indem Sie auf das Symbol Aufnehmen auf der von der Aufnahme-Software unterstützt Bildschirm.
      1. Nach der Lektüre haben die Aufgabe, Anweisungen auf dem Bildschirm dargestellt, kann jeder Teilnehmer die 5 Einarbeitungs Versuche durchführen, die von den Studien 30 Aufgabe gefolgt. Verwenden Sie das gleiche Verfahren sowohl für Fotografie und Strichzeichnungsaufgaben. so schnell wie möglich in der Aufgabenanweisung, ermutigen die Teilnehmer eine Punktzahl auf Emotionalität eines Gesichts Reiz zuzuweisen.
      2. WICHTIG: Überprüfen Sie Programme vorbereitet in den Schritten 1.3.2 und 1.4.2 für richtig Ereignisse zeit gesperrt bis zum Einsetzen der zentralen Blickfixierung, Gesicht Stimuluspräsentation und durch Drücken der GO-Taste, um die Aufnahme-Software während der Emotionalität Auswertung senden. Diese Beginn Zeiten werden als numerische codiert und können sich auf der von der Aufzeichnungssoftware unterstützt Bildschirm überprüft werden.
        Hinweis: Der Teilnehmer eine Pause zwischen den beiden Aufgaben übernehmen. Es gibt keine EEG reCording während der Pause.
    9. Verwenden Sie einen Digitalisierer (zB die Polhemus FASTRAK 3D - Digitalisierer in dieser Studie) , um die 3D - Positionen von Elektroden zu erfassen und sie in einer Datei zu speichern (zB .3dd oder DAT - Datei) für die Co-Registrierung EEG - Kappen über die Teilnehmer in der Datenanalyse.
    10. Nach dem Experiment EEG, haben die Teilnehmer eine 35 Frage Inventar auf sein / ihr Verhalten und Gefühle während des EEG Experiment ausfüllen (zB negative Emotionen, fast in den Schlaf fiel), und sie die Zahlung für die Teilnahme an dem Experiment zur Verfügung stellen.
    11. Bringen Sie die Teilnehmer auf die Toilette zu reinigen / trocknen sein / ihr Haar.
    12. Reinigen und desinfizieren Sie die EEG-Kappe nach klinischen Anweisungen.

3. Verarbeitung von EEG-Daten

Hinweis: Die Software-Befehle in diesem Abschnitt sind spezifisch für EEGLAB.

  1. Filtern der EEG-Signale unter Verwendung eines Hochpassfilters von 1 Hz und einen Tiefpassfilter von 50 Hz durch die anrufpop_eegfilt.m Funktion 32.
    Hinweis: Verwenden Sie ein Tiefpassfilter von 40 Hz für einige Länder, die 50-Hz-Netzfrequenz haben
  2. Entsorgen schlechten Kanäle mit einer Impedanz von mehr als 5 kOhm nach der Elektrodenimpedanz in Schritt 2.2.6 aufgezeichnet zu überprüfen. Verwerfen diese schlechten Kanäle mit sehr unterschiedlichen Leistungsspektrums im Vergleich zu den benachbarten Kanälen durch visuelle Inspektion des Leistungsspektrums Eigenschaften (beispielsweise der Maximalwert, der Krümmung, etc.) in jedem Kanal.
    1. Berechnen und das Leistungsspektrum des EEG - Signals Komplott der pop_spectopo.m Funktion 32 aufrufen.
  3. Re-Referenz die EEG-Signale mit dem Durchschnitt der Gehirn-Kanäle ohne die schlechten Kanäle durch die pop_reref.m Funktion aufrufen.
  4. Segment EEGs in Stimulus-Locked-Epochen, von denen jeder im Bereich von -2,0 bis 1,5 sec prä- sec nach Beginn des Stimulus. Richtige für die Baseline (-2,0 bis -1,2 sec vor dem Beginn des Stimulus) durch den Durchschnitt der Basis valu Entfernenes aus jeder Epoche.
    1. Rufen Sie die pop_epoch.m und pop_rmbase.m Funktionen sind. Wählen Sie das Intervall der Basislinie vor der zentralen Blickfixierungsperiode und dem Beginn des Gesichts Stimulus.
  5. Mark schlechte Epochen, die Artefakte zu enthalten scheinen. Entsorgen Sie die schlechten Epochen, während die Epochen von Augenblinzen kontaminiert reservieren. Die Epochen mit Artefakte sehen in der Regel laut oder extrem hohen Spitzenwert (zB höher als 100 & mgr ; V) im Vergleich zu typischen Epochen.
    1. Rufen Sie die pop_rejmenu.m Funktion ein halbautomatisches Verfahren zu starten. Eine Interaktion Fenster öffnet, um automatisch ausgewählt schlechte Epochen durch den Benutzer über visuelle Inspektion erneut bestätigen. Obwohl eine Mehrheit der Epochen durch Augenblinzen verunreinigt sind, können diese Epochen vorläufig für spätere Entfernung von Independent Component Analysis (ICA) 33 in Schritt 3.8 reserviert werden.
  6. schlechte Kanäle und schlechte Epochen Nach dem Verwerfen, ICA auf den beschnittenen EEG-Daten führen Sie den pop_runi mitca.m Funktion.
  7. Unter den geschätzten unabhängigen Komponenten (ICs), identifizieren Artefakte aus der Augenbewegung / blinken, Muskelaktivität, Herzschlag, und Leitungsrauschen 32.
    Hinweis: Eine signifikant hohe Korrelation (R 2> 0,9) zwischen IC - Scores einer Komponente und die aller Referenzkanäle (VEOG, HEOG, EKG und Gesichts Kanäle) zeigt an, dass diese Komponente in erster Linie durch Artefakte beigetragen wird. Die geschätzten IC-Scores durch die Artefakte erklärt sind auch per multiple Regressionsanalyse gereinigt werden.
  8. Entfernen Artefakt-ICs und schätzen die klaren EEGs, die durch das Produkt des ICA abgeleitet sind Mischmatrix und artefakt gereinigt IC-Score-Matrix. Speichern Sie die saubere EEGs für die weitere Analyse.
    1. Halten Sie die Residuen der Vorhersage Artefakt - ICs (R 2> 0,9) von der Referenz VEOG, HEOG, EKG und Gesichts Kanäle in der IC - Score - Matrix. Entfernen Sie andere Artefakt-ICs durch die pop_subcomp.m Funktion. Die Funktion gibt die artefakt gereinigt EEGs.

    4. Statistische Analyse

    1. Partition EEG-Kanäle in elf homogenen Regionen die Anzahl der statistischen Vergleiche in ERP zu reduzieren und ERSP analysiert, das heißt, links- (10 Kanäle), midline- (14) und der rechten frontalen (10); linke (13) und der rechten Schläfen (13); links- (9), midline- (14) und der rechten zentralen (9); links- (9), midline- (12) und der rechten Hinterhaupts parietalen (9) , wie in 4 gezeigt. Diese Regionen werden entsprechend der funktionellen Anatomie des Kortex 34. Funktions Homogenität der EEG - Signale in diesen Gebieten wurde in verschiedenen Experimenten bestätigt 13,35,36.

    Abbildung 4
    Abbildung 4. Der Kanal - Partition. Die Kanäle sind in elf Bereiche unterteilt. LF: links-frontal (10 Kanäle), MF: Mittellinie-frontalen (14), RF: rechte frontale (10), LT: links-temporal (13), RT: rechts-temporal (13), LC: links-Zentrale (9), MC: Mittellinie-Zentral (14), RC: Rechtsmittel (9), LP: links-Hinterhaupts parietalen (9), MP: Mittellinie-Hinterhaupts parietalen (12), RP :. rechten Hinterhaupts parietalen (9) Bitte hier klicken , um eine größere Version dieser Figur zu sehen.

    1. Legen Sie die sauberen EEGs in Schritt 3.8. Berechnen Sie den Kanal ERP durch Signale über Epochen in jedem Kanal im Durchschnitt und die regionale ERP von ERPs innerhalb derselben Region im Durchschnitt.
      Hinweis: Bei EEGs sind die pop_loadset.m Funktion in EEGLAB geladen verwenden, werden die Signale in der Struktur-Variable gespeichert "EEG.data" in einem Kanal-by-Zeit-für-Epoche-Array.
      1. Im Kommandofenster Matlab, berechnen die ERP - Kanal durch EEG.data über Epochen für jeden Kanal (zB channelERP = Mittelwert (EEG.dat, 3)) im Durchschnitt. Berechnen Sie die regionalen ERP durch den Kanal ERPs im Durchschnitt in der jeweiligen Region gemäß der Trennwand in 4.1 (zB regionalERP = Mittelwert (channelERP (index, :), 1), wobei "Index" steht für die Kanalindizes in einer bestimmten Region).
    2. Berechnen Sie die Kanal ERSPs durch Anlegen einer Zeit-Frequenz - Transformation (zB Wavelet - Transformation) zu Epoche Signale in jedem Kanal und regionalen ERSPs durch Kanal ERSPs in derselben Region im Durchschnitt.
      1. Führen Sie die Zeit-Frequenz-Transformation durch die pop_newtimef.m Funktion aufrufen.
        Hinweis: In dieser Studie wurde die "Wavelet-Zyklen" Eintrag wird auf [1, 0,5] und "Baseline" ist auf [-2.000--1.200] msec. Die resultierenden Kanal ERSPs wird in einer Frequenz-by-Zeit-für-Kanal-Array gespeichert werden.
      2. Im Kommandofenster Matlab, die regionale ERSP berechnen , indem ERSPs über Kanäle in der jeweiligen Region gemäß der Trennwand 4.1 (zB regionalERSP = Mittelwert (channelERSP ( im Durchschnitt:,:, index), 3), wobei "channelERSP" ist der Ausgang von der pop_newtimef.m-Funktion und "Index" steht für die Kanalindizes in agIven Region).
    3. Berechnen Mittelwerte in verschiedenen Zeitintervallen (zB 50-150, 150-250, 250-350, 350-450 ms) für die regionale ERPs. Berechnen Mittelwerte in verschiedenen Zeitfrequenzintervallen (zB 50-150, 150-250, 250-350, 350-450, 450-800 ms in 1-7 Hz und 200-800 ms in 8-30 Hz) für die regionale ERSPs.
    4. Bewerben MANOVA in statistischer Software (zB IBM SPSS) zu den Mittelwerten der regionalen ERPs und ERSPs Haupteffekte für die Aufgabe (Foto vs. Strichzeichnung), Region (elf Kopfhaut Regionen) zu bewerten, und die Gruppe (AS vs. Kontrolle) sowie die Wechselwirkungen zwischen der Aufgabe, die Region und Gruppe.
      1. In der statistischen Analyse, betrachten Geschlecht (männlich vs. weiblich) als Kovariate, und schätzen die Haupt- und Interaktionseffekte durch die geschlechtsspezifische Wirkung konstant gehalten werden.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Die durchschnittlichen verbalen und Performance IQ - Werte sind in Tabelle 1 für die Steuerung und AS - Gruppen zusammen mit den durchschnittlichen Reaktionszeiten und Durchschnittswerte zu Emotionalität von Gesichtern der beiden Gruppen zugeordnet aufgeführt. In der Tabelle keine der Gruppenunterschiede erreicht statistische Signifikanz mit Ausnahme der neutralen Gesichter in der Strichzeichnung Aufgabe, bei der die AS - Gruppe eine durchschnittliche Punktzahl in der Nähe von Null (p <0,001) hat 13. Interessanterweise hat die AS-Gruppe noch etwas längere Reaktionszeiten als die Kontrollgruppe zu wütend und glückliche Gesichter bei der Reaktion und kürzere Reaktionszeiten bei der Reaktion auf neutrale Gesichter auch bei der experimentellen Kontrolle des Geschlechts, der IQ und Gesicht Reize. Asperger-Syndrom ist mit Beeinträchtigungen in der Amygdala und die dazugehörigen limbischen Strukturen gefunden 37-39, die mit Ausnahme der neutralen Emotion 40,41 in Erinnerung an Emotionen beteiligt sind , bekannt sein. Diese limbischen structmen mit dem nicht-bewussten Prozess verbunden ist, kann eine wichtige Rolle bei der Interpretation der Verhaltensreaktionen bei Patienten mit AS spielen.

Tabelle 1
Tabelle 1. Verhaltensdaten der Punkte auf der Hamburg-Wechsler-Intelligenztest für Erwachsene-III, Reaktionszeiten und durchschnittlichen Emotionalität Noten zugewiesen Gesicht Reize in der Fotografie und Strichzeichnung Aufgaben. Diese Tabelle ist eine modifizierte Version von Tabelle 1 in Tseng et al . 13

Wie in 5 gezeigt, wird die N400 - Komponente in der Kontrollgruppe in der frontalen ausgeprägt, Schläfen- und Hinterhaupts-parietalen Regionen in beiden Lichtbild und Zeilenzeichnungsaufgaben, aber die Amplitude dieser Komponente ist kleiner in der Strichzeichnungs Aufgabe. In der AS-Gruppe ist die N400 sichtbar in der Mittellinie Frontbereich, aber unsichtbar in anderen Regionen in der Fotografie Aufgabe und becomes sichtbar in allen frontalen Regionen in der Strichzeichnung Aufgabe. Die MANOVA Aufgabe-by-Gruppe ist Interaktionseffekt signifikant in der 350-450 ms nach dem Einsetzen Intervall (p = 0,019). Die beiden Gruppen zeigen auch signifikante Unterschiede in der frühen Wahrnehmung in der Fotografie Aufgabe 42 und haben vergleichbare ERP - Muster in der Strichzeichnung Aufgabe; das heißt, die Aufgabe- für -Gruppe - Wechselwirkung Effekt auch Bedeutung im 50-150 msec nach dem Einsetzen Intervall (p = 0,035). Fotografie und Strichzeichnungs Gesichter erreichen die größte ERP Differenz der Schläfen- und Hinterhaupts-parietalen Regionen in der 250-550 ms Intervall.

Abbildung 5
Abbildung 5. ERP - Plots. ERP - Plots im rechten frontalen, rechten Schläfen und rechten Hinterhaupts-parietalen Regionen in der Steuerung (blau) und AS (rot) Gruppen in der (A) Foto und (B) Strichzeichnung Aufgaben. Standorte der EEG-Kanäle sindin der oberen linken Seite von jeder Parzelle gezeigt. Die vertikale Achse zeigt die ERP-Spannung (uV) und die horizontale Achse zeigt die Zeit in Millisekunden. Diese Figur ist eine modifizierte Version der 2 in Tseng et al. 13 Bitte hier klicken um eine größere Version dieser Figur zu sehen.

Wie in den Figuren 6 und 7 gezeigt, delta / theta - Synchronisation in der Kontrollgruppe wird in dem 50-800 msec Intervall nach dem Einsetzen in den beiden Aufgaben ausgeprägt. Die Hinterhaupts-parietalen Regionen zeigen stärkste Synchronisation, gefolgt von den zentralen und temporalen Regionen und dann von den frontalen Regionen im frühen 50-350 ms Intervall und die regionalen Unterschiede verschwinden nach 350 ms. Die Hinterhaupts-parietalen Regionen zeigen auch die stärkste Alpha / Beta-Desynchronisation in der 200-800 ms Intervall. in geNeral, haben die Fotografien einen additiven Effekt über Strichzeichnungen in Delta / Theta-Synchronisation, aber die Strichzeichnungen stärker alpha / beta-Desynchronisation induzieren. Die AS-Gruppe hat mehr vergleichbar Delta / Theta-Synchronisation als die Kontrollgruppe in der Strichzeichnung Aufgabe und ohne ersichtlichen additive Wirkung mit der Fotografie Gesichter verbunden. Die MANOVA Aufgabe-by-Gruppe ist Interaktionseffekt signifikant in den 50-150, 250-350 und 350-450 ms nach dem Einsetzen Intervalle (p = 0,043, 0,003 und 0,015, respectively). Die Gruppe Effekt ist auch von Bedeutung in den 150-250, 250-350 und 350-450 msec Intervallen (p = 0,033, 0,011 und 0,022, respectively). Die AS-Gruppe zeigt stärkere Delta / Theta-Synchronisation in den Hinterhaupts-parietalen Regionen in der 150-250 ms Intervall sowie die Mittellinie Regionen in der 350-450 ms Intervall, wenn sie gegen andere Kopfhaut Regionen verglichen. Die alpha / beta Desynchronisation in der AS-Gruppe ist ähnlich der der Kontrollgruppe (und etwas stärker) inBeide Aufgaben, aber die Unterschiede zwischen den beiden Aufgaben sind in der Regel in der AS-Gruppe kleiner ist. Die MANOVA Gruppe und Aufgabe-by-Gruppe Effekte sind statistisch nicht signifikant in hochfrequente Schwingungen.

Figur 6
Abbildung 6. ERSP Plots in der Fotografie Aufgabe. ERSP Plots für die (A) Kontrolle und (B) als Gruppen in der Fotografie Aufgabe. Die rote Farbe zeigt den Leistungserhöhung (Synchronisation), und die blaue Farbe kennzeichnet Leistungsabnahme (Desynchronisation) im Vergleich zum Ausgangswert. Diese Figur ist eine modifizierte Version von 3 in Tseng et al. 13 Bitte hier klicken um eine größere Version dieser Figur zu sehen.

7
Abbildung 7. ERSP Plots in ter Strichzeichnung Aufgabe. ERSP Plots für die (A) Kontrolle und (B) AS - Gruppen in der Strichzeichnung Aufgabe. Diese Figur ist eine modifizierte Version von 3 in Tseng et al. 13 Bitte hier klicken um eine größere Version dieser Figur zu sehen.

Die ERP-Ergebnisse legen nahe, eine Gruppe Unterschied in der frühen Wahrnehmung (50-150 ms) und später semantische Erkennung (350-450 ms) der emotionalen Gesichter in der Fotografie Aufgabe. Die AS-Gruppe hat eine kleinere Amplitude P1 in der Photographie Aufgabe und einer etwas größeren P1 Amplitude in der Strichzeichnungs Aufgabe, wenn sie mit der Kontrollgruppe verglichen. Die Amplitudenunterschiede in der P1 zwischen den beiden Aufgaben kann die Einzigartigkeit von Patienten mit AS in der Wahrnehmung von Fotos und Strichzeichnungen 43 reflektieren. Der N400 wird gezeigt durch stark betroffen zu seinder emotionale Gehalt, Vertrautheit und global / lokale Besonderheiten in den Gesichtern 44. In unserer Studie ist die N400 (350-450 ms) in den frontalen und temporalen Regionen gut sichtbar in der Kontrollgruppe, aber fast unsichtbar in der AS-Gruppe in der Fotografie Aufgabe. In Gesichts-Erkennung von Emotionen kann der N400 kann als ein Prozess der Suche nach einer Verbindung zwischen einem Gesicht und seine semantische Interpretation (böse, neutral und glücklich) interpretiert. In der Kontrollgruppe, die ERP Differenz zwischen den beiden Aufgaben in dem 350-450 msec Intervall ist konsistent mit den Ergebnissen von anderen. Die Amygdala ist aktiver intakt ängstliche Gesichter oder ängstliche Gesichter , die nur LSF Inhalt 3,45. Da die meisten LSF Inhalte aus den Linienzeichnungen entfernt sind, zeigen diese Erkenntnisse aus der Kontrollgruppe, dass der N400 im okzipitalen-parietalen Region viel kleiner ist und fast unsichtbar in den zeitlichen Regionen im Vergleich zu dem in der Fotografie Aufgabe.

because Informationsverarbeitung von Strichzeichnungen auf der nicht-bewussten Funktion in der Amygdala weniger abhängig ist, Patienten mit AS zeigen vergleichbarer ERP-Muster wie die gesunden Kontrollen in den späteren (350-450 ms) Stadien während der emotionalen Gesichtserkennung. Interessanterweise kann die AS-Gruppe die Emotionalität Bewertungsaufgaben korrekt und ohne sichtbaren N400 in der Fotografie Aufgabe zu erfüllen. Es ist vernünftig, dass die Informationsverarbeitung durch die Amygdala und der damit verbundenen limbischen Strukturen spielen eine entscheidende Rolle, um die Hypothese in der Amplitude der N400 Auslösung, welche die Effizienz der Informationsverarbeitung bei Patienten mit AS auswirken können, aber keinen Einfluss auf ihre Antwort Richtigkeit hat.

Es hat sich gezeigt , dass emotionale Gesichtserkennung 8 frühe und spätere Änderungen in Delta / Theta - Schwingungen eingreift, die die Gehirnaktivität mit Rinden-limbischen Projektionen während Stimulus Schätzung 46-48 assoziiert betrachtet werden. Delta / Theta - Synchronisation wird mehr im Zusammenhang mit nicht-bewussten als mit bewussten Gesichtserkennung 46. Die Erkenntnisse über ERSPs zeigen weiter, dass der AS-Gruppe in Delta / Theta-Rhythmen in den frühen und späteren Stadien der emotionalen Gesichtserkennung viel schwächer Synchronisation hat. Es ist vernünftig zu vermuten, dass die schwächere Delta / Theta-Synchronisation, eine Störung in nicht-bewusste Verarbeitung von emotionalen Äußerungen und einen Fehler im limbischen-kortikalen Projektion bei Patienten mit AS widerspiegelt. Delta / Theta-Synchronisation in der Mittellinie frontal, Mittellinie Zentral- und Mittellinie okzipitalen-parietalen Regionen im Vergleich zu anderen Regionen der Kopfhaut in der AS-Gruppe in der 350-450 ms nach dem Einsetzen Intervall in beiden Aufgaben etwas stärker ausgeprägt ist. Diese Mittellinie Regionen sind eng mit der kortikalen Struktur der bewussten Darstellung der emotionalen Bedeutung 18 bezogen.

Da die kognitive oder bewussten Weg ist immer noch vermitteltdurch das limbische Struktur wie der Thalamus, so können wir die Hypothese auf, dass der AS-Gruppe mehr auf der bewussten Weg verlässt sich als der nicht bewussten Weg in den Fotos und Strichzeichnungen zu reagieren. In der Kontrollgruppe erreicht das Delta / Theta Macht die stärkste in der parietalen-Okzipitalregion zeit gesperrt Beginn und Erhöhungen in den frontalen Regionen in der Fotografie Aufgabe zu einem späteren Zeitpunkt auf einen Reiz. Die räumliche Verteilung des Delta / Theta-Leistung in der Strichzeichnung Aufgabe wird zu der der AS-Gruppe näher. Wir vermuten, dass die Kontrollgruppe die bewussten und nicht-bewussten Wege in der Fotografie Aufgabe eingreift, und stützt sich auf den bewussten Weg in der Strichzeichnung Aufgabe.

Beim Vergleich ERSPs zwischen den beiden Aufgaben schlägt der Kontrollgruppe zusätzlich eine additive Wirkung von LSF Inhalte auf Delta / Theta-Synchronisation in der 250-450 ms nach dem Einsetzen Intervall, unabhängig von Gehirnregionen und der Mechanismen eforderter von Gesichts Emotionen. Der LSF-Gehalt in einem Gesicht scheint eine konstante Last auf den Informationsfluss zu stellen, die sich leicht durch freiwillige Liebe zum Detail in einem Gesicht umgangen werden kann, wie bei Patienten mit AS wird vorgeschlagen, die Gesichts Emotionen erfolgreich in der Fotografie Aufgabe auswerten kann. Starke Alpha- und Beta - Oszillationen im Neokortex mit Aufmerksamkeit verbunden sind , semantische Langzeitgedächtnis und die kognitive Einschätzung von Stimuli 49,50 als Indikatoren für die Funktionsabläufe bezeichnet. In einer Gesichtserkennung Aufgabe, Alpha / Beta - Desynchronisation spiegelt das Niveau der freiwilligen Aufmerksamkeit auf visuelle Reize und ist mit kognitiven Einschätzung von Gesichts Emotionen 15,18,51 verbunden. In dieser Studie gibt es keinen Beweis, eine Aufgabe oder Gruppeneffekt in höheren Frequenzschwingungen (alpha und beta) mit Ausnahme der regionalen Unterschiede unterstützen, wenn die Differenz zwischen dem parietalen-Okzipitalregion und anderen Regionen zu vergleichen. Alpha Desynchronisation reflektiert Aufmerksamkeit undeine Freisetzung von gehemmten Prozesse in komplizierte Aufgaben 52, während Beta Schwingung 53,54 in emotionsbezogene Aufgaben selten beobachtet. Beta Desynchronisation in der AS-Gruppe ist im allgemeinen stärker als die in der Kontrollgruppe in beiden Aufgaben, aber die Gruppe Unterschied ist unwesentlich. Die ERSPs deuten darauf hin, dass der AS-Gruppe viel schwächer Delta / Theta-Macht hat, aber etwas stärker Alpha / Beta-Leistung, wenn sie mit der Kontrollgruppe verglichen. Wir vermuten, dass Patienten mit AS ihre Aufmerksamkeit auf einige wichtige Details in Gesichtern durch die Verwendung von kognitiven Beurteilung der visuellen Stimuli lenken kann für sensorische und affektive Defizite zu kompensieren.

Zusammenfassend induziert die Erkennung von Gesichts Emotionen bei gesunden Kontrollen sowohl bewusst als auch nicht-bewussten Prozesse 9,18,51. Die Reaktionszeitunterschiede zwischen den beiden Aufgaben sind in der Regel größer in der Kontrollgruppe zu sein, als die in der Gruppe AS. Wir vermuten, dass die gesundeKontrollen greifen die bewusste Prozess mehr als die nicht bewusst ein zu den Strichzeichnungen bei der Reaktion und beide Prozesse ausüben, um die Fotos zu reagieren, während Patienten mit AS nur auf der bewussten Prozess verlassen, um beide Arten von Gesichtern zu reagieren.

Ergänzenden Code Datei:. Beispielprogramm Bitte hier klicken , um diese Datei herunterzuladen.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Die Literatur bietet Studien zur Erkennung von Gesichts Emotionen bei Patienten mit Autismus durch die Analyse von EEG - Reaktionen 44 und über die Anerkennung von Hoch- und Niederraumfrequenzinhalt unter Verwendung von visuellen Reizen 43. Zum bestem Wissen, jedoch gibt es einen Mangel an bestehende Arbeit auf dem Gehirn oszillatorischen Aktivität, die Emotionserkennung mit unterschiedlichen räumlichen Frequenzinhalt kombiniert. Unser Protokoll ist ein erster Schritt in Richtung auf den Einfluss der Emotionalität Schätzung (positiv, neutral und negativ Flächen) und Ortsfrequenzinformationen (Fotos und Strichzeichnungen) über die Anerkennung von Emotionen bei Patienten mit AS im Vergleich zu gesunden Kontrollpersonen. Unsere Analyse der EEG-Reaktionen in den räumlichen, zeitlichen und Frequenzbereich ermöglicht die affektiven und kognitiven Funktionen zu einem gewissen Grad für das wissenschaftliche Verständnis der AS Störung zu trennen. In dieser Studie stellt die experimentelle Protokoll einen Ansatz zur Minimierung der Faktoren, die nichts zu the Erkennung von Emotionen; das heißt, Reaktionszeiten und Emotionalität von Gesichtern zugeordnet Partituren sind so ähnlich wie möglich zwischen den beiden Gruppen von einem sorgfältig gestalteten Pilotstudie gehalten. Die Teilnehmer sind aufeinander abgestimmt auch auf IQ und Geschlecht sowohl in der Pilotstudie und EEG-Experiment. Während frühere EEG Studien an , wie auf der P1 konzentriert und 55 N170, macht das Protokoll in dieser Studie einen Beitrag einen signifikanten Unterschied in der N400 - Komponente zwischen dem AS und Kontrollgruppen in demonstriert.

Ekman emotionale Gesichter entlocken stärker niedrigere Frequenz Schwingungen in den gesunden Kontrollen verglichen mit Gesichtern in anderen Datenbanken (zB einige gut validierten Taiwanese emotionale Gesichter). Es wird dringend ein Pilot EEG Studie wurde empfohlen, zu leiten emotionale Gesichtsstimuli bei Patienten und gesunden Kontrollen vor dem EEG Experiment verwendet zu validieren. Patienten mit AS hatte Schwierigkeiten mit HSF Informationen in den Augenbereiche 56. In diesem Grund ist dieEkman ausgewählte Gesichtsstimuli enthalten emotionale Ausdrücke erkennbar ausgesetzt / unbelichteten Zähne oder gefurcht / geglättete Augenbrauen. Untersuchungen an anderen Arten von Patienten könnten auch andere Gesichtszüge betrachten, während Stimuli in dem verwendeten Protokoll zu ersetzen. Das Scoring-System muss so ausgelegt werden, um Patienten zu erleichtern, die Emotionalität Auswertung Aufgabe durchführen, die durch Befragung rekrutiert Patienten in der Pilotstudie gelöst werden können; das heißt, die geordnete Kontinuum ohne Markierungen mit Ausnahme der zentralen und Endpunkte gemäß Feedback von den Pilot Patienten ausgelegt. Die Etiketten an den Endpunkten des Scoring-System kann beispielsweise so modifiziert werden, freundlich gegenüber feindlich gesinnt, die gewählt werden muss, um die emotionalen Reaktionen vor allem bei den Kontrollen zu maximieren.

In der Literatur wird AS mit Beeinträchtigungen in der Amygdala und den damit verbundenen limbischen Strukturen 37-39, gefunden , die im Speicher und den Abruf von Informationen , die für Emotionen beteiligt sind, exKonzept für die neutrale Emotion 40,41. Ferner ist die Amygdala 3 an den LSF - Gehalt in einem fotografierten Gesichts empfindlich. Die beiden Aufgaben im Protokoll sind nach den bisherigen Erkenntnissen auf Defizite bei Erwachsenen entwickelt, um mit AS, und die Reize und Scoring-System wurden zusätzlich zur Verwendung mit dieser Population von Patienten entwickelt. Klinische Anwendungen des Protokolls zu anderen erwachsenen Patienten mit einer ähnlichen Art von Beeinträchtigung, wie Autismus - Spektrum - Störungen 57, kann mit einer geringfügigen Änderung in den Gesichtsstimuli und dem Scoring - System durchgeführt werden.

Es ist zu beachten, dass das Protokoll nicht für die klinische Diagnostik von Kindern , die jünger als 7 Jahre alt, bewusste Kontrolle dessen soll (oder freiwillig) über Verhaltensweisen möglicherweise nicht vollständig 26 entwickelt werden. Ferner muss die Technik nicht klar Diagnoseergebnisse bei Patienten mit psychiatrischen Komorbidität nach Hirnverletzungen, Tumoren oder andere Verletzungen der zerebralen Hämodynamik ergeben.Mehrere Studien haben einen Zusammenhang zwischen Aggression und hormonelle Veränderungen bei Frauen während des Menstruationszyklus 58,59 gefunden. Es ist auch bekannt , dass die Verabreichung von Ethanol oder Betäubungsmitteln ändert die emotionalen Reaktionen 60. Diese Arten von Änderungen können dazu führen, Schwankungen bei EEG-Reaktionen auf emotionale Reize sowohl bei gesunden Kontrollen und Patienten mit AS. Daher ist es nicht empfehlenswert, das Protokoll für Frauen während der Monatsblutung oder wenn Leiden prämenstruellen Syndromen anwenden, oder bei Patienten unter Alkohol oder Drogenrausch. Neuroimaging Studien über bewusste und nicht-bewussten Wege von Emotionen kann das Protokoll anwenden demographisch gesunden Kontrollen und Patienten mit AS angepasst durch Variation der Grad der Grobkörnigkeit und Neutralität in der emotionalen Gesichtsstimuli.

Patienten mit AS gehören zu einer relativ hohen Trait-Angst - Gruppe 13,36 und ihre Augen blinken und Bewegungsartefakte können schwerwiegend sein. Es ist wünschenswert, have erfahrene Datenprozessoren und effiziente Algorithmen für die EEG-Artefakte zu entfernen, bevor irgendwelche wissenschaftlichen oder klinischen Fragen. Das experimentelle Protokoll stellt eine Anstrengung in Richtung der Erforschung der bewussten und nicht-bewussten Vorstellungen von Emotionen im Gehirn. Das Protokoll wurde durch die Einstellung IQ / Geschlecht abgestimmte Kontrollen und Patienten mit AS im EEG Experiment validiert. Die Reaktionszeit und Reaktions Genauigkeit sind weitere Ergänzungen zu den psychischen und Verhaltens Diagnosen. Die Technik ist unabhängig von der subjektive Stimmung des Teilnehmers während des Experiments, und deshalb ermöglicht die Dynamik eines Patienten Zustand während und nach der psychologischen oder pharmakologische Therapie zu verfolgen. Die Technik kann auf Patienten angewendet werden, von anderen Arten von affektiven Pathologie leidet, wie die Angststörung, Depression, Burn-out-Syndrom und emotionale Verletzung bei posttraumatischen Stress. Weitere Modifikationen am Protokoll sind für die Verwendung in othe gefördertr soziale und emotionale Störung Gruppen. Eine gut konzipierte Pilotstudie mit Interview von Kontrollen und Patienten würden bei der Validierung einer modifizierten Version des Protokolls helfen.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
Synamps 2/RT 128-channel EEG/EP/ERP Neuroscan
Quik-CapEEG 128 electrodes Neuroscan
Gel Quik-Gel
FASTRAK 3D digitizer Polhemus 

DOWNLOAD MATERIALS LIST

References

  1. Tamietto, M., De Gelder, B. Neural bases of the non-conscious perception of emotional signals. Nat Rev Neurosci. 11, 697-709 (2010).
  2. Harms, M. B., Martin, A., Wallace, G. L. Facial Emotion Recognition in Autism Spectrum Disorders: A Review of Behavioral and Neuroimaging Studies. Neuropsychol Rev. 20, 290-322 (2010).
  3. Vuilleumier, P., Armony, J. L., Driver, J., Dolan, R. J. Distinct spatial frequency sensitivities for processing faces and emotional expressions. Nat Neurosci. 6, 624-631 (2003).
  4. Phan, K. L., Wager, T., Taylor, S. F., Liberzon, I. Functional neuroanatomy of emotion: A meta-analysis of emotion activation studies in PET and fMRI. Neuroimage. 16, 331-348 (2002).
  5. Kano, M., et al. Specific brain processing of facial expressions in people with alexithymia: an (H2O)-O-15-PET study. Brain. 126, 1474-1484 (2003).
  6. Williams, L. M., et al. Fronto-limbic and autonomic disjunctions to negative emotion distinguish schizophrenia subtypes. Psychiat Res-Neuroim. 155, 29-44 (2007).
  7. Goffaux, V., et al. From coarse to fine? Spatial and temporal dynamics of cortical face processing. Cereb Cortex. (2010).
  8. Balconi, M., Lucchiari, C. EEG correlates (event-related desynchronization) of emotional face elaboration: A temporal analysis. Neurosci Lett. 392, 118-123 (2006).
  9. Balconi, M., Lucchiari, C. Consciousness and emotional facial expression recognition - Subliminal/Supraliminal stimulation effect on n200 and p300 ERPs. J Psychophysiol. 21, 100-108 (2007).
  10. Balconi, M., Pozzoli, U. Face-selective processing and the effect of pleasant and unpleasant emotional expressions on ERP correlates. Int J Psychophysiol. 49, 67-74 (2003).
  11. Balconi, M., Pozzoli, U. Event-related oscillations (EROs) and event-related potentials (ERPs) comparison in facial expression recognition. J Neuropsychol. 1, 283-294 (2007).
  12. Balconi, M., Pozzoli, U. Arousal effect on emotional face comprehension Frequency band changes in different time intervals. Physiol Behav. 97, 455-462 (2009).
  13. Tseng, Y. L., Yang, H. H., Savostyanov, A. N., Chien, V. S., Liou, M. Voluntary attention in Asperger's syndrome: Brain electrical oscillation and phase-synchronization during facial emotion recognition. Res Autism Spectr Disord. 13, 32-51 (2015).
  14. Goffaux, V., Rossion, B. Faces are" spatial"--holistic face perception is supported by low spatial frequencies. J Exp Psychol Hum Percept Perform. 32, 1023 (2006).
  15. Knyazev, G. G., Bocharov, A. V., Levin, E. A., Savostyanov, A. N., Slobodskoj-Plusnin, J. Y. Anxiety and oscillatory responses to emotional facial expressions. Brain Res. 1227, 174-188 (2008).
  16. Adolphs, R. Recognizing emotion from facial expressions: psychological and neurological mechanisms. Behav Cogn Neurosci Rev. 1, 21-62 (2002).
  17. Acar, Z. A., Makeig, S. Neuroelectromagnetic Forward Head Modeling Toolbox. J Neurosci Methods. 190, 258-270 (2010).
  18. Balconi, M. Neuropsychology of facial expressions. The role of consciousness in processing emotional faces. Neuropsychol Trends. 11, 19-40 (2012).
  19. Gross, T. F. The perception of four basic emotions in human and nonhuman faces by children with autism and other developmental disabilities. J Abnorm Child Psychol. 32, 469-480 (2004).
  20. Behrmann, M., Thomas, C., Humphreys, K. Seeing it differently: visual processing in autism. Trends in cognitive sciences. 10, 258-264 (2006).
  21. Holroyd, S., Baron-Cohen, S. Brief report: How far can people with autism go in developing a theory of mind? J Autism Dev Disord. 23, 379-385 (1993).
  22. Duverger, H., Da Fonseca, D., Bailly, D., Deruelle, C. Theory of mind in Asperger syndrome. Encephale. 33, 592-597 (2007).
  23. Wallace, S., Sebastian, C., Pellicano, E., Parr, J., Bailey, A. Face processing abilities in relatives of individuals with ASD. Autism Res. 3, 345-349 (2010).
  24. Weigelt, S., Koldewyn, K., Kanwisher, N. Face identity recognition in autism spectrum disorders: a review of behavioral studies. Neurosci Biobehav Rev. 36, 1060-1084 (2012).
  25. Wilson, C., Brock, J., Palermo, R. Attention to social stimuli and facial identity recognition skills in autism spectrum disorder. J Intellect Disabil Res. 54, 1104-1115 (2010).
  26. American_Psychiatric_Association. The Diagnostic and Statistical Manual of Mental Disorders: DSM 5. bookpointUS. (2013).
  27. Dahlgee, S., Gilberg, C. Symptoms in the First two years of Life. A Priliminary. Population Study of Infantile Autism European archives of Psychiatry and Neurology. Sciences. (1989).
  28. Basar-Eroglu, C., Kolev, V., Ritter, B., Aksu, F., Basar, E. EEG, auditory evoked potentials and evoked rhythmicities in three-year-old children. Int J Neurosci. 75, 239-255 (1994).
  29. Ekman, P., Friesen, W. V. Pictures of Facial Affect. Consulting Psychologist Press. (1976).
  30. Gillberg, C. Autism and Asperger's Syndrome. Cambridge University Press. 122-146 (1991).
  31. Chiang, S. K., Tam, W. C., Pan, N. C., Chang, C. C., Chen, Y. C., Pyng, L. Y., Lin, C. Y. The appropriateness of Blyler's and four subtests of the short form of the Wechsler Adult Intelligence Scale-III for chronic schizophrenia. Taiwanese J Psychiatr. 21, 26-36 (2007).
  32. Delorme, A., Makeig, S. EEGLAB: an open source toolbox for analysis of single-trial EEG dynamics including independent component analysis. J Neurosci Methods. 134, 9-21 (2004).
  33. Makeig, S., Bell, A. J., Jung, T. P., Sejnowski, T. J. Independent component analysis of electroencephalographic data. Adv Neural Inf Process Syst. 8, 145-151 (1996).
  34. Başar, E. Brain Function and Oscillations: Volume I: Brain Oscillations. Principles and Approaches. Springer Science & Business Media. (2012).
  35. Tsai, A. C., et al. Recognizing syntactic errors in Chinese and English sentences: Brain electrical activity in Asperger's syndrome. Res Autism Spectr Disord. 7, 889-905 (2013).
  36. Savostyanov, A. N., et al. EEG-correlates of trait anxiety in the stop-signal paradigm. Neurosci Lett. 449, 112-116 (2009).
  37. Ashwin, C., Baron-Cohen, S., Wheelwright, S., O'Riordan, M., Bullmore, E. T. Differential activation of the amygdala and the 'social brain' during fearful face-processing in Asperger Syndrome. Neuropsychologia. 45, 2-14 (2007).
  38. Kevin, K. Y., Cheung, C., Chua, S. E., McAlonan, G. M. Can Asperger syndrome be distinguished from autism? An anatomic likelihood meta-analysis of MRI studies. J Psychiatry Neurosci. 36, 412 (2011).
  39. Piggot, J., et al. Emotional attribution in high-functioning individuals with autistic spectrum disorder: A functional imaging study. J Am Acad Child Adolesc Psychiatry. 43, 473-480 (2004).
  40. Ilyutchenok, R. Y. Emotions and conditioning mechanisms. Integr Physiol Behav Sci. 16, 194-203 (1981).
  41. Kleinhans, N. M., et al. fMRI evidence of neural abnormalities in the subcortical face processing system in ASD. Neuroimage. 54, 697-704 (2011).
  42. Toivonen, M., Rama, P. N400 during recognition of voice identity and vocal affect. Neuroreport. 20, 1245-1249 (2009).
  43. Deruelle, C., Rondan, C., Gepner, B., Tardif, C. Spatial frequency and face processing in children with autism and Asperger syndrome. J Autism Dev Disord. 34, 199-210 (2004).
  44. Bentin, S., Deouell, L. Y. Structural encoding and identification in face processing: ERP evidence for separate mechanisms. Cogn Neuropsychol. 17, 35-55 (2000).
  45. Vuilleumier, P., Pourtois, G. Distributed and interactive brain mechanisms during emotion face perception: evidence from functional neuroimaging. Neuropsychologia. 45, 174-194 (2007).
  46. Basar, E., Guntekin, B., Oniz, A. Principles of oscillatory brain dynamics and a treatise of recognition of faces and facial expressions. Prog Brain Res. 159, 43-62 (2006).
  47. Basar, E., Schmiedt-Fehr, C., Oniz, A., Basar-Eroglu, C. Brain oscillations evoked by the face of a loved person. Brain Res. 1214, 105-115 (2008).
  48. Başar, E. Brain Function and Oscillations: Volume II: Integrative Brain Function. Neurophysiology and Cognitive Processes. Springer Science & Business Media. (2012).
  49. Anokhin, A., Vogel, F. EEG alpha rhythm frequency and intelligence in normal adults. Intelligence. 23, 1-14 (1996).
  50. Klimesch, W. EEG alpha and theta oscillations reflect cognitive and memory performance: a review and analysis. Brain Res Rev. 29, 169-195 (1999).
  51. Knyazev, G. G., Slobodskoj-Plusnin, J. Y., Bocharov, A. V. Event-Related Delta and Theta Synchronization during Explicit and Implicit Emotion Processing. Neuroscience. 164, 1588-1600 (2009).
  52. Klimesch, W., Sauseng, P., Hanslmayr, S. EEG alpha oscillations: The inhibition-timing hypothesis. Brain Res Rev. 53, 63-88 (2007).
  53. Knyazev, G. G., Slobodskoj-Plusnin, J. Y. Behavioural approach system as a moderator of emotional arousal elicited by reward and punishment cues. Pers Individ Dif. 42, 49-59 (2007).
  54. Balconi, M., Brambilla, E., Falbo, L. Appetitive vs. defensive responses to emotional cues. Autonomic measures and brain oscillation modulation. Brain Res. 1296, 72-74 (2009).
  55. Dakin, S., Frith, U. Vagaries of visual perception in autism. Neuron. 48, 497-507 (2005).
  56. Curby, K. M., Schyns, P. G., Gosselin, F., Gauthier, I. Face-selective fusiform activation in Asperger's Syndrome: A matter of tuning to the right (spatial) frequency. Poster presented at Cogn Neurosci, New York, (2003).
  57. American_Psychiatric_Association. Diagnostic and statistical manual of mental disorders. (1994).
  58. Dougherty, D. M., Bjork, J. M., Moeller, F. G., Swann, A. C. The influence of menstrual-cycle phase on the relationship between testosterone and aggression. Physiol Behav. 62, 431-435 (1997).
  59. Van Goozen, S. H., Wiegant, V. M., Endert, E., Helmond, F. A., Van de Poll, N. E. Psychoendocrinological assessment of the menstrual cycle: the relationship between hormones, sexuality, and mood. Arch Sex Behav. 26, 359-382 (1997).
  60. Winward, J. L., Bekman, N. M., Hanson, K. L., Lejuez, C. W., Brown, S. A. Changes in emotional reactivity and distress tolerance among heavy drinking adolescents during sustained abstinence. Alcohol Clin Exp Res. 38, 1761-1769 (2014).

Comments

0 Comments


    Post a Question / Comment / Request

    You must be signed in to post a comment. Please sign in or create an account.

    Usage Statistics