Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Erforschung der Verwendung isolierter Ausdrücke und Film-Clips Emotionserkennung mit Schädel-Hirn-Verletzung von Personen zur Bewertung

Published: May 15, 2016 doi: 10.3791/53774

Summary

Dieser Beitrag beschreibt, wie eine Batterie von Verhaltens Aufgaben zu implementieren Emotionserkennung von isolierten Gesichts- und Stimm Emotionen Ausdrücken zu untersuchen und eine neue Aufgabe kommerzielle Fernseh- und Filmclips mit multimodalen Emotionserkennung zu bewerten, die kontextuellen Hinweise enthält.

Abstract

Die aktuelle Studie präsentiert 60 Menschen mit traumatischen Hirnverletzungen (TBI) und 60 Kontrollen mit isolierten Gesichts Emotionen Ausdrücken, isoliert vocal Emotion Ausdrücke und multimodal (dh., Filmclips) Reize , die kontextuellen Hinweise enthalten. Alle Stimuli wurden per Computer vorgestellt. Die Teilnehmer waren erforderlich, um anzuzeigen, wie die Person in jedem Stimulus wurde das Gefühl ein Forced-Choice-Format. Zusätzlich wird für die Filmclips, hatten die Teilnehmer, um anzuzeigen, wie sie in Antwort auf den Stimulus gefühlt, und die Höhe der Intensität, mit der sie diese erfahren Emotion.

Introduction

Schädel - Hirn - Verletzung (TBI) leiden etwa 10 Millionen Menschen jedes Jahr auf der ganzen Welt ein. Im Anschluss an TBI, die Fähigkeit , Emotionen in anderen zu erkennen mit nonverbale Signale wie Gesichts- und Stimm Ausdrücke (dh., Ton der Stimme) und kontextuelle Cues wird oft deutlich 2-7 beeinträchtigt. Da eine erfolgreiche zwischenmenschliche Interaktionen und Qualität Beziehungen zumindest teilweise auf eine genaue Interpretation abhängig sind von anderen Emotionen 7-10, ist es nicht verwunderlich , dass mit Emotionserkennung Schwierigkeit der schlechten sozialen Ergebnisse berichtet worden , häufig folgende TBI 3,8 berichtet beizutragen, 11,12.

Studien Emotionserkennung von Menschen mit TBI Untersuchung haben sich auf isolierte Hinweise zu konzentrieren neigten, vor allem die Anerkennung der Gesichts Emotionen Ausdrücken mit statischen Fotografien 2. Während dieser Arbeiten können bei der Information der Entwicklung von Behandlungs pro wichtigGramm, ist es nicht ausreichend die Fähigkeit, in alltäglichen Interaktionen nonverbale Signale von Emotionen zu erkennen, darstellen und interpretieren. Nicht nur statische Bilder sorgen für mehr Zeit , um die Emotion porträtiert zu interpretieren, sie auch in der Regel schildern nur die Spitze (dh., Maximale Darstellung) der Ausdrücke 13-16. Zusätzlich statische Bilder nicht über die zeitlichen Hinweise , die mit der Bewegung auftreten 12,13,15, und sind nicht repräsentativ für die schnell in alltäglichen Situationen begegnet Mimik Emotionen zu verändern. Ferner gibt es Hinweise , um anzuzeigen , dass statische und dynamische visuelle Ausdrücke in verschiedenen Bereichen des Gehirns verarbeitet werden, genauere Antworten auf Stimuli dynamische 17-24.

Vocal Emotionserkennung von Menschen mit TBI hat auch sowohl mit als auch ohne sinnvolle verbale Inhalt untersucht worden. Es wurde vorgeschlagen, dass die Anwesenheit von verbalen Inhalt Wahrnehmungs Anforderungen, weil genaue inte erhöhtrpretation erfordert die gleichzeitige Verarbeitung der nonverbalen Tonfall mit dem semantischen Inhalt der verbalen Nachricht enthalten 25. Während viele Studien eine verbesserte Anerkennung von Gesang gezeigt haben , beeinflussen in Abwesenheit von sinnvollen verbalen Inhalt, Dimoska et al. 25 keinen Unterschied in der Leistung gefunden. Sie argumentieren, dass Menschen mit TBI haben eine Tendenz zu semantischen Gehalt in affektiven Sätze; so dass selbst wenn der Inhalt semantisch neutrale oder beseitigt ist, sie weiterhin auf die mündlichen Informationen in dem Satz zu konzentrieren. So haben ihre Ergebnisse nicht eindeutig zeigen, ob sinnvolle verbale Inhalt fördert oder behindert vocal emotionalen Ausdruck.

Neben der sinnvollen verbalen Inhalt, der die nonverbale Gesangs Cues begleiten kann, wird Kontext auch durch die soziale Situation selbst zur Verfügung gestellt. Situativen Kontext liefert Hintergrundinformationen über die Umstände, unter denen die Emotion Ausdruck erzeugt wurde, und kann somit stark ineinflussen die Interpretation des Ausdrucks. Bei der Bewertung, wie jemand fühlt, verwenden wir Kontext zu bestimmen, ob sich die Situation mit dieser Person Wünsche und Erwartungen in Einklang steht. Dies wirkt sich letztlich , wie jemand fühlt, so die Kenntnis der situativen Kontext sollte 26 Emotion 'in genauer Inferencing anderer führen. Die Fähigkeit , dies zu tun , wird als Theorie des Geistes, ein Konstrukt zu wesentlich beeinträchtigt folgenden TBI 6,27-31 gefunden. Milders et al. 8,31 Bericht , dass die Menschen mit TBI erhebliche Schwierigkeiten haben , um genaue Urteile über und das Verständnis der Absichten und Gefühle der Charaktere in kurzen Geschichten.

Während diese Studien Defizite in nonverbale und situationsEmotionsVerarbeitung hervorgehoben haben, ist es schwierig, die Ergebnisse zu alltäglichen sozialen Interaktionen, wo diese Signale auftreten, nebeneinander und im sozialen Kontext zu verallgemeinern. Um besser zu verstehen, wie Menschenmit TBI Emotion in alltäglichen sozialen Interaktionen zu interpretieren, müssen wir Stimuli zu verwenden, die in der Natur multimodal sind. Nur zwei frühere Studien haben eingeschlossen multimodale Stimuli im Rahmen ihrer Untersuchung, wie die Menschen mit TBI Prozess Emotion Cues. McDonald und Saunders 15 und Williams und Holz 16 extrahiert Reize aus der Emotion Auswerteversuch (EET), die 26 Teil , das Bewusstsein für soziale Inference - Test ist. Die EET besteht aus Video aufgezeichnet Vignetten, die männliche und weibliche Schauspieler zeigen porträtiert nonverbale Emotion Cues, während im Gespräch eingreifen. Die verbale Inhalt in den Gesprächen ist semantisch neutral; Hinweise darüber, wie die Akteure fühlen und Kontextinformationen sind nicht vorgesehen. Daher die Notwendigkeit, zu verarbeiten und sinnvolle verbale Inhalte zu integrieren und gleichzeitig diese Weise mit den nonverbalen Gesichts- und Stimm Cues eliminiert wurde. Die Ergebnisse dieser Studien zeigten, dass Menschen mit TBI waren significantly weniger genau als die Kontrollen in ihrer Fähigkeit, Emotionen aus multimodale Stimuli zu identifizieren. Da weder eine Studie der Einfluss von semantischen oder Kontextinformationen zur Interpretation von Emotionen Ausdrücken betrachtet, bleibt unklar, ob die Zugabe von dieser Art der Informationsverarbeitung wegen der erhöhten intersensorischen Redundanz erleichtern würde oder negativ wegen der erhöhten kognitiven Anforderungen beeinflussen Wahrnehmung.

Dieser Artikel beschreibt eine Reihe von Aufgaben verwendet Wahrnehmung von Gesichts- und Stimm emotionale Signale in Isolation zu vergleichen, und die Wahrnehmung dieser Signale gleichzeitig innerhalb sinnvoller situativen Kontext auftreten. Die Isolationen Aufgaben sind Teil eines größeren Test der nonverbalen Emotionserkennung - Die Diagnose - Analyse der nonverbalen Genauigkeit 2 (DANVA2) 32. In diesem Protokoll haben wir die Erwachsenen Faces (DANVA-Faces) und Adult Parasprache (DANVA-Stimmen) Subtests. Jede dieser Untertests umfasst 24 Stimuli,zeigt sechs Darstellungen jeder glücklich, traurig, wütend und ängstlich Emotionen. Die DANVA2 erfordert Teilnehmer die Emotion porträtiert mit einem Forced-Choice-Format (4 Möglichkeiten) zu identifizieren. Hier wird eine fünfte Option (ich weiß nicht) wird für beide Subtests zur Verfügung gestellt. Die Zeitdauer jeder Gesichtsausdruck wurde von 2 Sekunden bis fünf Sekunden erhöht gezeigt, um sicherzustellen, dass wir Erkennungs beeinflussen wurden bewertet und nicht Geschwindigkeit der Verarbeitung. Wir änderte nichts an der erwachsenen Parasprache Subtest über das Hinzufügen der zusätzlichen Wahl in der Forced-Choice-Antwort-Format. Die Teilnehmer hörten jeder Satz nur einmal. Das Feedback war nicht in jeder Aufgabe zur Verfügung gestellt.

Film-Clips wurden verwendet Wahrnehmung von Gesichts- und Stimm Emotion Hinweise zu beurteilen gleichzeitig im situativen Kontext auftreten. Während die verbale Inhalte innerhalb dieser Clips nicht explizit angeben, welche die Zeichen in den Klammern Gefühl wurden, war es auf den situativen Kontext sinnvoll. Fünfzehn Clips Co extrahiertmmercial Filme und Fernsehserien wurden in die Studie aufgenommen, angefangen jeweils 45 bis 103 (Mittelwert = 71,87) Sekunden. Das Feedback war während dieser Aufgabe an die Teilnehmer zur Verfügung gestellt. Es gab drei Clips für jede der folgenden Kategorien Emotion darstellen: glücklich, traurig, wütend, ängstlich, neutral. Diese Clips wurden basierend auf den Ergebnissen einer Studie mit jungen Erwachsenen durchgeführt wurden gewählt (n = 70) , Zupan, B. & Babbage, DR Emotion elicitation Reize aus Filmclips und Erzähltext. Manuskript eingereicht J Soc Psyc. In dieser Studie wurden die Teilnehmer mit sechs Filmclips für jede der Ziel Emotion Kategorien vorgestellt und sechs neutralen Filmclips, von 24 bis 127 Sekunden (Mittelwert = 77,3 Sekunden). Während das Ziel relativ kurzen Filmclips enthalten war, die jeweils für die Aufnahme ausgewählt Clip benötigt ausreichend Kontextinformationen zu haben , dass es ohne zusätzliche Kenntnisse des Films von den Zuschauern verstanden werden könnte , von dem es 33 genommen wurde.

Emotion elicitation Reize aus Filmclips und Erzähltext, wie oben zitiert als Ziel Emotion zwischen 83 und 89% für glücklich korrekt identifiziert wurde, 86-93 % für traurig, 63-93% für wütend, 77-96% für ängstliche, und 81-87% für neutral. Während die gleiche Anzahl von Exemplaren jeder Emotion Kategorie, wie sie in den DANVA2 Aufgaben war (n = 6) wäre ideal gewesen, entschieden wir uns wegen drei der erhöhten Länge der Filmclip Stimuli im Vergleich zu Stimuli in den DANVA-Faces für nur und DANVA-Voices Aufgaben.

Die Daten aus diesen Aufgaben wurden von 60 Teilnehmern mit TBI gesammelt und 60 nach Alter und Geschlecht abgestimmte Kontrollen. Die Teilnehmer wurden entweder einzeln oder in kleinen Gruppen (max = 3) und die Reihenfolge der in Testsitzungen wurde randomisiert drei Aufgaben gesehen.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Dieses Protokoll wurde von den Institutional Review Boards an der Brock University und an Carolinas Rehabilitation genehmigt.

1. Vor der Prüfung

  1. Erstellen Sie drei separate Listen für die 15 Filmclips, die jeweils die Auflistung der Clips in einem anderen eingeschränkten Reihenfolge.
  2. Stellen Sie sicher, dass jede Liste beginnt und endet mit einem neutralen Reiz und dass keine zwei Clips, die die gleiche Emotion nacheinander auftreten Ziel.
  3. Erstellen Sie einen separaten Ordner auf dem Desktop für jede Liste von Film um Präsentation und beschriften Sie den Ordner mit dem Bestellbezeichnung (z. B. Auftrag 1).
  4. Speichern Sie die 15 Clips in jeder der drei Ordner.
  5. Re-label jeden Film - Clip , so dass es die Präsentation Zahl reflektiert und gibt keine Hinweise in Bezug auf die Ziel Emotion (dh 01;. 02; 03;. Usw.).
  6. Erstellen Sie sechs randomisierten Aufträge von Aufgabe (DANVA-Faces, DANVA-Stimmen, Film - Clips) Präsentation (siehe Abbildung 1).
  7. Ordnen Sie die eingehenden participAmeise auf einer der drei beschränkt Aufträge von Filmclips Präsentation.
  8. Ordnen Sie die eingehenden Teilnehmer zu einer der sechs randomisierten Ordnungen Aufgabe Präsentation.

2. Testtag

  1. Bringen Sie (n) Teilnehmer in das Labor und Sitz sie bequem am Tisch.
  2. Überprüfen Sie die Einverständniserklärung mit dem Teilnehmer durch jeden Abschnitt mit ihm / ihr zu lesen.
  3. Beantworten Sie alle Fragen der Teilnehmer kann über die Zustimmung Form haben und ihn / sie es unterzeichnen.
  4. Haben die Teilnehmer die kurze demographischen Fragebogen (Geburtsdatum, Geschlecht) abzuschließen. Lassen Sie die Teilnehmer mit TBI zusätzlich den Abschnitt des Fragebogens auf relevante medizinische Fragebogen ausfüllen (Datum der Verletzung, Ursache für Verletzungen, Verletzungsschwere).
    HINWEIS: Wenn die Teilnehmer den Fragebogen absolvieren, erkundigen sich über bekannte visuelle Schwierigkeiten Verarbeitung, so dass Sie entsprechend Teilnehmer mit TBI Sitz kann
  5. Positionieren Sie den Teilnehmer vor the Computer in einem Stuhl. Stellen Sie sicher, dass alle Teilnehmer (wenn mehr als ein), um eine klare Sicht auf den Bildschirm.

3. DANVA-Faces-Task

  1. Geben Sie jedem Teilnehmer eine Clip-Board mit dem DANVA-Faces Antwortbogen angebracht und einem Stift Kreis Antworten.
  2. Geben Sie die Teilnehmer die folgenden Anweisungen: "Nachdem Sie die einzelnen Elemente zu sehen, kreisen Ihre Antwort (glücklich, traurig, wütend, ängstlich oder neutral) auf der Linie, die auf jeder Folie gezeigt, der Artikelnummer entspricht."
    HINWEIS: Wenn die Teilnehmer mit TBI visuelle Verarbeitungsschwierigkeiten angegeben haben, oder feinmotorischen Schwierigkeiten sind offensichtlich, liefern die Teilnehmer mit der alternativen Antwortseite. Diese Seite listet die fünf Antworten in größeren Text im Querformat.
  3. Öffnen Sie die DANVA-Faces Aufgabe in einer Präsentation und spielen Sie die Diashow-Ansicht.
  4. Geben Sie den Teilnehmern die folgenden Anweisungen: "Für diese Tätigkeit werde ich Ihnen einige Völker Gesichter zu zeigen, und ich will dichsagen Sie mir, wie sie sich fühlen. Ich möchte Sie, mir zu sagen, ob sie glücklich, traurig, wütend oder ängstlich sind. Ängstliche ist das gleiche wie Angst oder Angst. Wenn Sie unsicher über die Emotion sind, wählen Sie die "Ich weiß es nicht" Antwort. Es gibt 24 Gesichter zusammen. Jedes Gesicht wird fünf Sekunden lang auf dem Bildschirm sein. Sie müssen beantworten, bevor das Gesicht verschwindet für deine Antwort zu zählen. Geben Sie Ihre Antwort, indem sie auf dem Blatt vor Ihnen kreisen ".
    HINWEIS: Wenn der Teilnehmer nicht in der Lage ist, seine / ihre eigenen Antworten zu umkreisen und in der Studie als Teil einer kleinen Gruppe, geben Sie die folgende Anweisung beteiligt: ​​"Geben Sie Ihre Antwort auf das Blatt vor Ihnen auf sie zeigen". Der Prüfer wird dann aufzeichnen Antwort des Teilnehmers auf der DANVA-Faces Antwortbogen.
  5. Achten Sie darauf, die Teilnehmer vor dem Start keine Fragen haben.
  6. Starten Sie die Aufgabe mit den beiden Trainings Studien. Geben Sie den Teilnehmern die folgenden Anweisungen: "Wir zwei pra abgeschlossen werdenctice Studien, so dass Sie bekommen ein Gefühl dafür, wie lange jedes Gesicht auf dem Bildschirm angezeigt wird, und wie lange haben Sie Ihre Antwort zu geben ".
  7. Hit auf der Tastatur eingeben, wenn das Gesicht auf den nächsten Reiz zu bewegen verschwindet. Sicherstellen, dass alle Teilnehmer auf den Bildschirm, bevor dies zu tun.
  8. Stellen Sie sicher, dass die Teilnehmer nicht Fragen haben. Falls keine, beginnen die Testversuche. Sicherstellen, dass alle Teilnehmer auf dem Bildschirm suchen. Hit geben Sie die Teststimuli zu starten.
  9. Wiederholen Sie diesen Vorgang für die Praxis Aufgaben umrissen, bis die 24 Stimuli abgeschlossen sind.
  10. Sammeln Sie die Teilnehmer Antwortblätter.

4. DANVA-Voices Aufgabe

  1. Geben Sie jedem Teilnehmer eine Clip-Board mit dem DANVA-Voices Antwortbogen angebracht und einem Stift Kreis Antworten.
    HINWEIS: Wenn die Teilnehmer mit TBI visuelle Verarbeitungsschwierigkeiten angegeben haben, oder feinmotorischen Schwierigkeiten sind offensichtlich, liefern die Teilnehmer mit der alternativen Antwortseite. Dieses page listet die fünf Antworten in größeren Text im Querformat.
  2. Öffnen Sie die DANVA-Voices Aufgabe, indem Sie auf der folgenden Website:
    http://www.psychology.emory.edu/clinical/interpersonal/danva.htm
  3. Klicken Sie auf den Link für Erwachsene Gesichter, Stimmen und Haltungen.
  4. Füllen Sie das Login und Passwort durch einen Buchstaben für das Login eingeben und EMORYDANVA2 für das Passwort eingeben.
  5. Klicken Sie auf Weiter.
  6. Klicken Sie auf Stimmen (grüner Kreis in der Mitte des Bildschirms).
  7. Testen Sie die Lautstärke. Geben Sie die folgenden Anweisungen: "Ich sicher sein wollen, dass Sie den Ton auf dem Computer hören können, und dass es in einem komfortablen Volumen für Sie werde ich Testton klicken Sie mir bitte sagen, ob Sie den Ton hören kann, und.. auch wenn Sie den Ton müssen für Sie sein lauter oder leiser zu sein, komfortabel. "
  8. Klicken Sie auf Test-Sound.
  9. Stellen Sie die Lautstärke entsprechend der Teilnehmeranforderung (Zunahme / Abnahme).
  10. Klicken Sie auf "Testton" wieder. Stellen Sie die Lautstärke nach Wunsch des Teilnehmers. Tun Sie dies, bis der Teilnehmer meldet es auf einem komfortablen Volumen ist.
  11. Überprüfen Sie die Aufgabenanweisungen mit dem Teilnehmer. Geben Sie den Teilnehmern die folgenden Anweisungen: Für diese Tätigkeit, werden Sie jemand sagen, den Satz zu hören: "Ich bin jetzt aus dem Zimmer gehen, aber ich werde später wieder sein." Ich möchte Sie, mir zu sagen, ob sie glücklich, traurig, wütend oder ängstlich sind. Ängstliche ist das gleiche wie Angst oder Angst. Wenn Sie unsicher über die Emotion sind, wählen Sie die "Ich weiß es nicht" Antwort. Es gibt 24 Sätze. Vor jedem Satz gesprochen wird, wird eine Reihe bekannt gegeben. Sie müssen, um den Satz zu hören, die folgt. Die Sätze werden nicht wiederholt, so dass Sie aufmerksam zuhören müssen. Sag mir, wie die Person durch kreisen Ihre Antwort auf das Blatt vor Ihnen ist das Gefühl ". Nachdem Sie Ihre Auswahl getroffen haben, ich brauche eine Antwort auf dem Computer-Bildschirm zu wählen, um zum nächsten Punkt zu bewegen. Ich werde immer t wählener gleiche Emotion (ängstlich). Meine Auswahl zeigt nicht die richtige Antwort in sowieso. "
    HINWEIS: Wenn der Teilnehmer nicht in der Lage ist, seine / ihre eigenen Antworten zu umkreisen und in der Studie als Teil einer kleinen Gruppe, geben Sie die folgende Anweisung beteiligt: ​​"Geben Sie Ihre Antwort auf das Blatt vor Ihnen auf sie zeigen". Der Prüfer wird dann die Antwort der Teilnehmer aufzeichnen, die auf der DANVA-Voices Antwortbogen.
  12. Klicken Sie auf "Weiter".
  13. Direkte Teilnehmer an Kreis (oder Punkt), um ihre Antwort auf ihre Antwort Blatt, wenn der Satz gespielt hat.
  14. Klicken Sie auf "ängstlich". Klicken Sie auf "Weiter".
  15. Wiederholen Sie diesen Vorgang, bis die 24 Sätze abgeschlossen sind.
  16. Verlassen Sie die Website, wenn Sie das Ende der Aufgabe erreichen.
  17. Sammeln Sie die Antwortbögen der Teilnehmer.

5. Film Clip Aufgabe

  1. Sitz Teilnehmer bequem vor dem Computer. Stellen Sie sicher, dass der Bildschirm ful sein kannly von allen gesehen.
  2. Geben Sie jeder Person, die eine Zwischenablage mit einer Kopie des Emotional Film Clip Antwortblatt.
    HINWEIS: Wenn die Teilnehmer mit TBI visuelle Verarbeitungsschwierigkeiten angegeben haben, oder feinmotorischen Schwierigkeiten sind offensichtlich, liefern die Teilnehmer mit zwei alternativen Antwortseiten. Die erste Seite listet die fünf Forced-Choice-Antworten und die zweite stellt die Skala von 0-9. Beide Antwort Seiten in größeren Text und im Querformat.
  3. Öffnen Sie den Ordner auf dem Computer für die zugeordnete Reihenfolge der Videoclip-Präsentation.
  4. Geben Sie den Teilnehmern die folgenden Anweisungen: "Sie werden insgesamt 15 Filmclips zu sehen jeden Film-Clip, werden Sie ein Zeichen sehen, wer wie sieht sie eine bestimmte Emotion Gefühl sind sie aussehen könnte" glücklich ",".. traurig "," wütend "," ängstlich "oder" neutral ". Zuerst habe ich Sie mir zu sagen wollen, was Emotion der Charakter zeigt. Dann mir sagen, welche Emotionen Sie erfahren beim Anschauen des FilmsClip. Schließlich erklären mir die Zahl, die die Intensität der Emotion am besten beschreibt man den Clip fühlte, während Sie. Zum Beispiel, wenn das Gesicht der Person hat dich 'mild' glücklich oder traurig fühlen, kreisen eine Zahl von 1 bis 3 im Bereich Wenn Sie fühlte 'mäßig' glücklich oder traurig, kreisen eine Zahl im Bereich von 4 bis 6. Wenn Sie "sehr wohl 'glücklich oder traurig, kreisen eine Zahl im Bereich von 7 bis 9. Nur 0 kreisen, wenn Sie keine Emotion überhaupt fühlen. Haben Sie irgendwelche Fragen?"
    ANMERKUNG: Nur die erste Frage (Sag mir, welche Emotion das Zeichen angezeigt) wurde für die aktuelle Studie analysiert.
  5. Klicken Sie doppelt 01 den ersten Film-Clip zu öffnen.
  6. Teilen Sie den Teilnehmern, die Zeichen auf das zu konzentrieren, während Sie den Clip sehen.
  7. Wählen Sie "View Full Screen 'im Optionsmenü den Clip zu spielen.
  8. Richten Sie die Teilnehmer zu reagieren, an der Linie (Was Emotion ist die Hauptfigur erlebt?) Auf ihre Antwort Blatt, wenn der Clip abgespielt ist.
  9. i> Richten Sie die Teilnehmer auf der Linie b (Wählen Sie eine Emotion , die am besten beschreibt , wie Sie sich gefühlt , während der Clip zu beobachten) reagieren auf die Antwortblatt einmal Zeile ein beantwortet wurde.
  10. Richten Sie die Teilnehmer auf der Linie C zu reagieren (Wie würden Sie die Intensität der Emotion bewerten Sie erfahren, während Sie den Clip zu beobachten?) Einmal Leitung b beantwortet wurde.
  11. Richten Sie die Teilnehmer erneut zu lenken seine / ihre Aufmerksamkeit auf den Computer-Bildschirm, sobald die Antworten vollständig sind.
  12. Zurück zu dem Ordner auf dem Computer, der die Filmclips in der zugewiesenen Reihenfolge für den Teilnehmer enthält.
  13. Doppel CCK auf 02 den zweiten Videoclip zu öffnen. Wiederholen Sie die Schritte 5,5-5,12 bis der Teilnehmer alle 15 Filmclips angezeigt hat.
  14. Sammeln Sie die Antwortblatt vom Teilnehmer (n).

6. Der Übergang von einer Aufgabe zur anderen (optionaler Schritt)

  1. Geben Sie die Option Teilnehmer eine Pause zwischen Tasks 2 und 3 zu übernehmen.
e_title "> 7. Scoring die Aufgaben

  1. Beachten Sie die Antwortschlüssel auf Seite 25 der DANVA2 Handbuch 32 die DANVA-Faces Aufgabe zu punkten.
  2. "Ich weiß nicht, die Antworten werden ausgewertet als Score 0 Elemente, die den Antwortschlüssel als 1 und falsche Elemente als 0 entsprechen.
  3. Berechnen Sie eine rohe Punktzahl durch die Gesamtzahl der richtigen Antworten hinzugefügt wird. Teilen Sie die Rohwert von 24 (insgesamt Artikel) eine prozentuale Genauigkeit Punktzahl zu erhalten.
  4. Beachten Sie die Antwortschlüssel auf Seite 27 der DANVA2 Handbuch 32 und wiederholen Sie die Schritte 7.2 und 7.3 die DANVA-Voices Aufgabe zu punkten.
  5. Beachten Sie die Antwortschlüssel für zugeordnete Reihenfolge der Präsentation Filmclip für den Teilnehmer. Ergebnis eine 1, wenn der Teilnehmer die Ziel Emotion identifiziert, wenn auf die Frage nach reagiert, was Emotion der Charakter zeigte, und 0, wenn der Teilnehmer nicht das Ziel Emotion wählen (einschließlich, wenn der Teilnehmer sagte: "Ich weiß nicht").
  6. Berechnen Sie eine rohe Punktzahl durch Addieren der Anzahl von correct Antworten. Teilen Sie die Rohwert von 15 (insgesamt Artikel) eine prozentuale Genauigkeit Punktzahl zu erhalten.
  7. Erstellen Sie eine Teilmenge Score für den Film Clip Aufgabe, die durch Zugabe von richtigen Antworten nur auf diese 12 Clips nur Antworten auf die glücklich, traurig, wütend und ängstlich Film-Dateien enthalten. Teilen Sie die Anzahl der richtigen Antworten um 12, um eine prozentuale Genauigkeit Punktzahl erhalten.
  8. Erstellen Sie eine Partitur für Antworten auf neutralen Filmclips, indem die Anzahl der richtigen Antworten auf die neutralen Clips hinzufügen. Teilen Sie die Anzahl der richtigen Antworten von 3, um eine prozentuale Genauigkeit Punktzahl erhalten.
    HINWEIS: Eine Teilmenge Punktzahl muss erstellt werden, weil die DANVA Aufgaben nicht Schilderungen von Neutral umfassen, während der Film-Clips Aufgabe gemacht haben.
  9. Berechnen Sie eine Partitur für Antworten auf positiv Artikel valente (dh., Glücklich) und negativ valente Elemente (kombinieren Antworten zu wütend, ängstlich und traurig Reize) für alle drei Aufgaben.
  10. Teilen Sie die Punktzahl für positiv valente Elemente für jede Aufgabe von 3 zu erhalten percentage Genauigkeit Punktzahl.
  11. Teilen Sie die Punktzahl für negativ valente Elemente für jede Aufgabe von 9 bis prozentuale Genauigkeit Noten erhalten.

8. Datenanalyse

  1. ein gemischtes Modell Varianzanalysen (ANOVA) Verhalten Antworten auf isolierte Gesichts Emotion Reize, isoliert vocal Emotion Reize und multimodale Filmclip Stimuli von den Teilnehmern mit TBI und die Kontrolle von Teilnehmern zu prüfen.
  2. Entdecken Haupt in der ANOVA gefunden Effekte mit Follow-up-univariate Vergleiche.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Diese Aufgabe Batterie verwendet wurde Emotionserkennung für isolierte Emotionen Ausdrücken zu vergleichen (dh von Angesicht nur,. Voice-only) und kombiniert Emotionen Ausdrücken (. Dh, Gesicht und Stimme) , die innerhalb eines situativen Kontext auftreten. Insgesamt 60 (37 Männer und 23 Frauen) Teilnehmer mit mittelschwerer bis schwerer TBI im Alter von 21 bis 63 Jahren (Mittelwert = 40,98) und 60 (38 Männer und 22 Frauen) Alter -matched Controls (Bereich = 18 bis 63; Mittelwert = 40,64) abgeschlossen, die drei Aufgaben. Um an der Studie teilnehmen, die Teilnehmer mit einem TBI benötigt, um entweder eine Glasgow-Koma-Skala-Score, posttraumatischem Amnesie oder Verlust bewusst, die zu schweren SHT indikativ für eine moderate war. Die durchschnittliche Zeit, da Verletzung war 13,68 Jahre und die häufigste Ursache für Verletzungen war ein Autounfall (72%). Die Teilnehmer mit einem TBI hatte durchschnittlich 14,43 Jahre der Ausbildung und Kontrollpersonen 15,72 Jahre Bildungsabschluss. Die Teilnehmer mit TBI wurden von der Studie ausgeschlossen, wenn sie eine Entwicklungs affektive Störung hatte, erworbenen neurologischen Erkrankung, schweren psychischen Störung oder Sehstörungen oder Hörvermögen, die volle Teilnahme an Studie Aufgaben hemmen würde. Kontroll Teilnehmer wurden ausgeschlossen, wenn sie eine Geschichte von TBI jeglicher Schwere berichtet, einschließlich Gehirnerschütterung was postconcussive Syndrom. Alle Teilnehmer sprachen Englisch als Hauptsprache.

Um sicherzustellen , gab es keine Auswirkungen Aufgabe Auftrag, wir vergeben Teilnehmer auf eine der drei beschränkt randomisierten Aufträge von Filmclips und einer von sechs Aufgabe Aufträge (siehe Abbildung 1). Film und Aufgabe Ordnung waren vorher festgelegten eine Online-Computer randomisierten Zahlengenerator verwendet wird. Weder Film noch Aufgabe Reihenfolge wurden zu bewirken Leistung gezeigt und wurden daher nicht als Kovariaten in Analysen verwendet.

Figur 2 enthält eine bildliche Beispiel ofa Reiz aus der DANVA-Faces Aufgabe und die Aufgabe, Film-Clips. Die Vorteile und Herausforderungen der DANVA2 und Filmclips Reize verwenden, sind in der Diskussion untersucht.

Eine ANOVA Prüfung Gruppe Unterschiede zwischen den drei beeinflussen Aufgaben Anerkennung signifikante Haupteffekte für Gruppe [F (1, 100) = 9,32; p = 0,003] gefunden und Aufgabe [F (2, 200) = 11.05, p <0,001]. Wie vermutet, dass Menschen mit TBI waren deutlich weniger genau als Kontrollen für die Leistung auf der DANVA-Faces Aufgabe, F (1, 101) = 6,77; p = 0,005, und der DANVA-Voices Aufgabe, F (1, 100) = 9.64, p = 0,002 (siehe Abbildung 3). Es war überraschend , dass die Anerkennung von Emotionen in der Film - Clips Aufgabe zu finden , unterscheiden sich nicht signifikant zwischen den beiden Gruppen, F (1, 118) = 2,12, p = 0,15. Wir hatten erwartet, dass die multimodale Natur der Filmclips, die kognitive Nachfrage der Aufgabe erhöhen würde, so dass esschwierig für Menschen mit TBI Emotion im Vergleich zu Kontrollen in den Filmclips zu erkennen. Dies war nicht der Fall. Es scheint, dass die multimodale Signale Redundanz erhöht, für Menschen mit TBI ermöglicht Emotion zu erkennen leichter als könnten sie die isolierten Ausdrücke.

Ähnlich wie in früheren Arbeiten auf diesem Gebiet, die Menschen mit TBI fand es deutlich schwieriger negativen Emotionen Ausdrücken als positive zu erkennen sowohl für die DANVA-Faces [F (1, 101) = 6,8, p = 0,01] und die DANVA-Voices [ DANVA-Stimmen; F (1,100) = 10,85, p = 0,001] Aufgaben (siehe Abbildung 4).

Während Studien in diesem Bereich Valenz Wirkungen berichtet haben nur wenige Studien Antworten auf die Ziel Emotionen untersucht. Wir analysierten Antworten für glücklich, traurig, ängstlich, und wütend Stimuli für alle drei Aufgaben (siehe Abbildung 5) und zusätzlich analysiertAntworten auf die neutralen Filmclips (siehe Abbildung 6). Obwohl die Wertigkeit Ergebnisse wiesen darauf hin , dass Menschen mit TBI im Allgemeinen ohne TBI, als Menschen zu identifizieren negativ valente Stimuli schwieriger fand , war der Wunsch , zu untersuchen , ob eine bestimmte Emotion (z. B. wütend) dieses Ergebnis fuhr. Da freuen uns nur positiv valente Emotion war, spiegelte unsere Ergebnisse hier die für Wertigkeit. Wenn Antworten auf die negativ valente Emotionen (traurig, wütend, ängstlich) untersuchen, zeigten die Ergebnisse, dass die Menschen mit TBI ängstlich die schwierigste Emotion zu identifizieren erwiesen. In der Tat war dies die einzige zwischen Gruppenantwort Unterschied in der Clip-Aufgabe Film gefunden. Die Identifizierung neutral war deutlich schwieriger für Menschen mit TBI als Kontrollen, F (1, 118) = 6,68, p = 0,001. Wenn neutral wurde falsch identifiziert, die Menschen mit TBI wurden wesentlich häufiger eine negativ valente Antwort als Kontrollen zur Verfügung zu stellen, F (2,236) = 4,75,p = 0,009.

Abbildung 1
Abbildung 1. Schematische Darstellung des Protokolls. Vor der Prüfung wurden die Teilnehmer auf eine von drei Präsentationsaufträge für die Filmclips zugewiesen. Es gab auch zu einer von sechs randomisierten Aufträge von Aufgabenerledigung zugeordnet. Am Tag der Prüfung, zur Verfügung gestellt Vorinformationen Teilnehmer vor der experimentellen Aufgaben [Film - Clips, DANVA-Gesichter (Faces) und DANVA-Stimmen (Voices)] abgeschlossen. Bitte hier klicken , um eine größere Version dieser Figur zu sehen.

Figur 2
Figure 2. Beispiele für Stimuli verwendet. A) Ein Beispiel für die isolierte facial Stimuli in der DANVA-Faces Aufgabe. Alle Reize in dieser Aufgabe sind statische Bilder mit dem gleichen Hintergrund. B) einen Screenshot von einem Film - Clip in der Aufgabe Film - Clips. Alle Film - Clips wurden von kommerziellen Filme genommen und Fernsehen und von 45 reichte -. 103 Millisekunden lang Bitte klicken Sie hier um eine größere Version dieser Figur zu sehen.

Figur 3
Abbildung 3. Die Antworten auf Medien, durch Gruppe. Antworten für jeden Aufgabentyp von Menschen mit und ohne TBI. Die Teilnehmer mit TBI waren deutlich weniger genau als Kontrollen für die Erkennung von statischen Gesichtsausdrücke von Emotionen [DANVA-Gesichter; F (1, 101) = 6,77; p = 0,005] und Stimm Emotionen Ausdrücken [DANVA-Stimmen; F (1, 100) = 9,64, p = 0,002]. Der Unterschied der Anerkennung von Emotionen für den Kontext angereicherten FilmClips war nicht signifikant [F (1, 118) = 2,12, p = 0,15]. Die Fehlerbalken zeigen Standardfehler des Mittelwerts (SEM). Bitte klicken Sie hier , um eine größere Version dieser Figur zu sehen.

Abbildung 4
Abbildung 4. Valence Antworten über Medien, durch Gruppe. Die Reaktionen auf positive im Vergleich zu negativen Stimuli über Aufgaben. Menschen mit TBI konnten positive Emotionen Ausdrücken ähnlich zu Kontrollen zu erkennen, hatte aber eine deutlich größere Schwierigkeiten negativen Gesichts Emotionen Ausdrücken [DANVA-Gesichter zu erkennen; F (1, 101) = 6,8, p = 0,01] und negative Emotion vocal Ausdrücke [DANVA-Stimmen; F (1,100) = 10,85, p = 0,001]. Die Fehlerbalken zeigen Standardfehler des Mittelwerts (SEM). Bitte klicken Sie hier , um eine larg anzuzeigen er Version dieser Figur.

Abbildung 5
Abbildung 5. Antworten für jede Emotion Kategorie über Medien, die von Group. Diese Abbildung zeigt Antworten auf jede der Ziel Emotionen für Menschen mit TBI und Kontrollen für die DANVA-Faces, DANVA-Stimmen und Film - Clips Aufgaben. Menschen mit TBI ausgeführt ähnlich Kontrollen für Happy, unabhängig von der Stimulustyp. Für traurig, wütend und ängstlich, Menschen mit TBI waren deutlich weniger genau als Kontrollen für DANVA-Faces und DANVA-Voices Aufgaben. Menschen mit TBI auch deutlich mehr Schwierigkeiten identifizieren ängstlich als die Kontrollen in Film - Clips hatten. Bitte hier klicken , um eine größere Version dieser Figur zu sehen.

.jpg "/>
Abbildung 6 Responses to Neutral Stimuli in den Film - Clips Aufgabe, durch Gruppe. Menschen mit TBI hatten deutlich mehr Schwierigkeiten Kennzeichnung neutral Filmclips als neutral als Kontrollen, F (1, 118) = 6,68, p = 0,001. Wenn neutral falsch identifiziert wurde, die Menschen mit TBI waren auch deutlich häufiger eine negativ valente Antwort zu geben , statt als bei den Kontrollen, F (2,236) = 4,75, p = 0,009. Bitte hier klicken , um eine größere Version dieser Figur zu sehen.

Emotion Fernsehserie / Werbefilm Szene Länge (s)
Glücklich Sweet Home Alabama, D & D Filme 2002 Ein Mann überrascht seine Freundin mit einem Heiratsantrag in einem Juweliergeschäft.
Regie: A. Tennant
Glücklich Wedding Crashers, New Line Cinema, 2005 Ein junges Paar sitzt auf dem Strand spielt kokett Spiele. 62
Regie: D. Dobkin
Glücklich Denken Sie daran, die Titanen, Jerry Bruckheimer Films, 2000 Eine schwarze Familie in eine weiße Gemeinschaft angenommen, nachdem der High-School-Football-Team die Meisterschaft Spiel gewinnt. 65
Regie: B. Yakin
Traurig Grey 's Anatomy, ABC, 2006 Ein Vater geht in die Chirurgie und ist nur in der Lage mit seiner Familie zu kommunizieren, indem seine Augen blinken. 98
Regie: P. Horton
Traurig ARMAGEddon, Touchstone Pictures, 1998 Eine Tochter muss sagen, Abschied von ihrem Vater, während er auf eine gefährliche Mission. 75
Regie: M. Bay
Traurig Grey 's Anatomy, ABC, 2006 Eine Frau ist das Herz gebrochen, nachdem ihr Verlobter verstorben ist. 87
Regie: M. Tinker
Wütend Anne of Green Gables, Canadian Broadcast Corporation 1985 Eine ältere Frau spricht offen über ein Kind die körperliche Mängel vor ihr. 62
Regie: K. Sullivan
Kanada: Anne of Green Gables Productions
Wütend Genug, Columbia Pictures, 2002 Eine Frau stellt ihren Mann über Untreue und er responds durch körperliche und emotionale Dominanz auszuüben. 103
Regie: M. Apted
USA: Columbia Pictures
Wütend Pretty Woman, Touchstone Pictures, 1990 Ein Anruf Mädchen versucht, Kleidung aus einem teuren Laden zu kaufen und die Ladengehilfen drehen sie weg. 65
Regie: G. Marshall
Ängstlich Blood Diamond, Warner Bros Pictures 2006 Ein Vater und Sohn sind zu Fuß zusammen, wenn zahlreiche Fahrzeuge Miliz Ansatz trägt. 50
Regie: E. Zwick
Ängstlich Das Leben vor meinen Augen, 2929 Productions, 2007 Zwei Teenager-Mädchen sprechen in einem Gymnasium Bad, wenn sie Schüsse hören, die auch weiterhin zu erhalten näher. 79
Regie: V. Perelman
Ängstlich The Sixth Sense, Barry Mendel Productions, 1999 Ein kleiner Junge erwacht aus seinem Schlaf und betritt die Küche seiner Mutter das Abendessen zu finden. 70
Neutral Die andere Schwester, Mandeville Films, 1999 Eine Mutter und Tochter sitzen und diskutieren ein Kunstbuch. 45
Neutral Das Spiel, Polygram Unterhaltung, Gefilmt 1999 Ein Herr ist zu erklären, die Regeln eines Spiels zu einem anderen Herrn. 85
Neutral Das Notebook, New Line Cinema, 2004 Ein älterer Herren und seinem Arzt während einer Routine-Check-up unterhalten. 56
Regie: N. Cassavetes
nt "fo: keep-together.within-page =" 1 "> Tabelle 1. Beschreibung der Film - Clips verwendet.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Das Manuskript beschreibt drei Aufgaben verwendet, um Emotionserkennung Fähigkeiten von Menschen mit TBI beurteilen. Das Ziel des beschriebenen Verfahrens war Ansprechgenauigkeit für Gesichts- und Stimm emotionale Signale in Isolation, um die Wahrnehmung dieser Signale gleichzeitig innerhalb sinnvoller situativen Kontext auftreten, zu vergleichen. Film-Clips wurden in der aktuellen Studie aufgenommen, weil ihre Annäherung an Alltagssituationen machte sie ökologisch gültig als isolierte Darstellungen von Emotionen Ausdrücken. Wenn dieses Protokoll mit Hirnverletzung mit Menschen durchgeführt wird, ist es wichtig, die individuelle visuelle Scan Fähigkeiten zu prüfen und sicherzustellen, dass die Reize und Antwortbögen vollständig sichtbar sind. Zur Unterstützung dieser Antwortblätter wurden geschaffen , die für jeden Reiz einer Zeile bestand, und verwendet abwechselnder Farbcodierung für jede Zeile (zB Zeile 1 = grau;. Zeile 2 = weiß; Zeile 3 = grau, etc.).

Die DANVA2 ist voll verfügbaronline. Allerdings wurde die Online-Version der DANVA-Faces nicht verwendet, weil es voreingestellt ist jedes Gesicht zu haben, nur für zwei Sekunden angezeigt. Angesichts der Geschwindigkeit der Verarbeitung Probleme erfahren oft von Menschen mit TBI, waren wir besorgt, dass auf dieser Version gemacht Fehler mehr sein kann, der Geschwindigkeit der Verarbeitungsprobleme hinweisen, als reflektierende von Gesichts-Erkennung von Emotionen. Unsere Präsentation Version der DANVA-Faces erhöht die Zeit, jede Anregung auf 5 Sekunden angezeigt wird.

Die Stimuli in der aktuellen Studie lieferte wichtige Einblicke in die Emotionserkennung Fähigkeiten von Menschen mit TBI. Allerdings gibt es viele Wege, auf denen die Stimuli für die Verwendung dieser Art in zukünftigen Studien verbessert werden. Die Reize verwendet Erkennung von isolierten Gesichts Emotion Ausdrücke zu bewerten waren von der DANVA-Faces Aufgabe des DANVA2. Der Vorteil der Verwendung der Stimuli DANVA-Faces ist , dass sie standardisiert sind und vorher mit Menschen mit TBI 3,34 verwendet. Die 24 Artikel inklude hoher und niedriger Intensität Schilderungen der Emotion von einer kleinen Gruppe von Sprechern, so werden die Teilnehmer auf den gleichen Lautsprechers variable Ausdrücke ausgesetzt. Darüber hinaus enthält die DANVA-Faces Aufgabe Farbfotos im Vergleich zu den schwarzen und weißen Bilder häufig verwendet. Sind nicht nur farbige Bilder moderneren, McDonald und Saunders 15 argumentieren sie , um Menschen mit TBI wahrscheinlich weniger abstrakt sind. Das primäre Problem mit den verwendeten Stimuli im DANVA-Faces Aufgabe ist es, dass die Emotionen Ausdrücken statisch sind. Wie zuvor erläutert, bieten statische Bilder mehr Zeit , die Menschen , die Emotion dargestellt wird, nicht über die zeitlichen Signale zu interpretieren , die auftreten , wenn das Gesicht 12,13,15 bewegt und sind im gleichen Bereich des Gehirns als dynamische diejenigen nicht verarbeitet 17- 23. So verwenden nur statische Ausdrücke Gesichts-Emotion als Emotionserkennung Beurteilung nicht für eine angemessene Verallgemeinerung auf realen Verarbeitung verhindert. Darüber hinaus hat die Forschung gezeigt, dass wir em identifizieren könnenotions auf Fotografien genauer als bewegte Bilder, so Tests statische Bilder mit 13,35,36 Fähigkeiten überschätzen kann. Deshalb müssen zukünftige Studien isoliert dynamische Gesichts-Emotion Reize umfassen, um genauer zu beurteilen, wie die Menschen mit TBI Emotion in nur das Gesicht porträtiert interpretieren. Diese Reize könnten möglicherweise erstellt werden, um die Filmclips mit von Rahmen, in denen die gezielte Emotion Auswahl wurde dargestellt, das Löschen der Ton und Zuschneiden, den Film zu konzentrieren sich auf nur den Kopf und den Hals des Charakters. Dies würde zu beseitigen zusätzliche Kontext Cues, einschließlich gestische Signale und Körpersprache.

Die Stimm Emotionen Ausdrücken in der aktuellen Studie wurden auch von der DANVA2 genommen. Ähnlich wie bei der DANVA-Faces Aufgabe umfasst die DANVA-Voices Aufgabe 24 Artikel von hoher und niedriger Intensität. Jeder Punkt auf der DANVA-Voices verwendet die gleiche semantisch neutrale Satz (ich bin jetzt aus dem Zimmer gehen, und ich werde später wieder sein). Die Wiederholungvon einem einzigen Satz erlaubt Zuhörer auf die nonverbale Emotion Hinweise zu konzentrieren (dh., Ton) und den verbalen Inhalt ignorieren. Dies steht im Gegensatz zu Stimuli in früheren Studien verwendet , die für jede Position 15 verschiedene (semantisch neutral) verbalen Inhalt enthalten. Im Gegensatz zu den Ergebnissen der aktuellen Studie, McDonald und Saunders 15 berichtet , dass die Menschen mit TBI erhebliche Schwierigkeiten hatte , Emotion in isolierten Stimm Emotionen Ausdrücken zu identifizieren , wenn sie isoliert Gesichts Emotionen Ausdrücken verglichen. Die verbale Inhalt der Stimm Reize in dieser Studie für jedes Element variiert, verwendet, so ist es möglich, dass die Teilnehmer den verbalen Inhalt der Interpretation wurden konzentriert, die semantisch neutral war und somit sinnlos. Diese Behauptung wird durch Studien gestützt , die gezeigt haben , dass die Menschen mit (und ohne) TBI sind eher verbale Inhalte im Vergleich zu den nicht-verbalen akustischen Signale zu verwenden , um eine Stimm Emotion Ausdruck 37-39 zu interpretieren. Zukünftige Studien sollten furtsie erforschen, inwieweit die Menschen mit TBI Nutzung des nonverbalen gegen verbale Inhalt in isolierten vocal Ausdrücke machen, um zu bestimmen, ob die semantische Informationen in der verbalen Botschaft vermittelt dominanter ist als die Emotion Tonfall durch gefördert. Dies könnte durch die Schaffung von Stimuli mit einer begrenzten Anzahl von Sätzen erreicht werden, sinnvoll und neutral in der verbalen Inhalt. Diese Sätze könnten dann entweder mit kongruent oder inkongruent nonverbale Gesangs Cues kombiniert werden. Sätze , die in der verbalen und nonverbalen Emotion Inhalt kongruent sind wahrscheinlich eine schnellere und genauere Identifizierung der Emotion 40 ausgedrückt zu führen. Es ist jedoch unklar, welche Teilnehmer Cue auf das Wesentliche konzentrieren, wenn die verbale und nonverbale Inhalte ist inkongruent, und ob ein Kanal, der im gesamten Aufgabe beherrschen, oder wenn die dominante Cue auf der Emotion abhängig sein wird, durch jeden Kanal dargestellt.

Impulse in der DANVA2 wurden von pres erstelltEnting Lautsprecher mit einer kurzen Vignette richtet ein Ziel Emotion zu entlocken und dann diese Lautsprecher anweist, dass die Emotion über das Gesicht oder Stimme zum Ausdruck bringen. Es wurde vorgeschlagen , dass solche Methoden zu übertrieben und stereotypisch Ausdrücke führen , die 41 bis hoch genug Anerkennung Fähigkeiten führen kann. Die Filmclips auf der anderen Seite enthalten Gesichts- und Stimm Ausdrücke, die mit situativen Kontext aufgetreten, so dass sie mehr ökologisch gültig ist als die Verwendung von isolierten Ausdrücke zu machen. Es ist wichtig zu beachten, dass zwar nicht semantisch neutrale, die verbale Inhalt nicht den emotionalen Zustand der Charaktere in irgendeiner Weise festgelegt haben. Die Verwendung von Filmclips dieser Art mit Menschen mit TBI ist neu. Während die Ergebnisse der aktuellen Studie legen nahe , dass die zusätzliche Kontextinformationen in den Filmclips enthalten stark Emotionserkennung erleichtert, ist es möglich , dass die Teilnehmer durch die zusätzlichen Signale vorhanden beeinflusst wurden (z. B. Körperhaltung) und / oder die filmische Gestaltung of die Clips (zB., Pacing, Beleuchtung und Framing) 42,43. Die Teilnehmer wurden auch durch das Vorhandensein von Hintergrundmusik beeinflusst, so dass die Ergebnisse müssen sorgfältig interpretiert und verallgemeinert werden. Der Einfluss von affektiven Hintergrundmusik sollte in zukünftigen Studien untersucht werden durch Filmausschnitte ohne und ohne diesen Cue zu vergleichen, um festzustellen, ob die Anwesenheit von kongruent Hintergrundmusik Emotionserkennung erleichtert. Obwohl diese Daten zu alltäglichen sozialen Interaktionen nicht unbedingt verallgemeinert werden würde, könnte es für die Behandlung von Emotionserkennungsdefizite haben wichtige Auswirkungen. Es ist auch möglich, dass die Teilnehmer in der aktuellen Studie über die Körperhaltung wurden angewiesen und Gesten der Figuren in den Filmclips Emotion Wahrnehmung zu erleichtern. Auch für die Erkundung wäre wichtig, Filmclips zu finden, die das Vorhandensein und die Abwesenheit solcher Signale zu manipulieren, welche Menschen mit TBI cues meisten Gebrauch machen, wenn Emotionen in immer der Interpretationyday Situationen. Allerdings kommerzielle Filmclips zu identifizieren, die jede dieser äußeren Faktoren in unterschiedlichem Ausmaß stellt eine erhebliche Herausforderung zu manipulieren. Stattdessen könnte die künftige Forschung konzentrieren sich auf qualitativ hochwertige Filmclips in verschiedenen Situationseinstellungen Zeichen zeigen engagiert in sinnvolle Interaktionen zu schaffen. Diese Clips können gesteuert werden, für die Anwesenheit und Abwesenheit von kontextuellen Hinweise, Haltungen, Gesten und Hintergrundmusik. Darüber hinaus könnten die Clips Erkennung von dynamischen isoliert Mimik zu beurteilen, verwendet werden, wie zuvor beschrieben, die Anerkennung von isolierten Stimm Emotionen Ausdrücken, diese beiden Signale kombiniert und dann die Zugabe von Kontextinformationen. Dies würde dringend benötigte Einblick, wie Menschen mit TBI wahrnehmen Emotion und könnte für eine bessere Verallgemeinerung auf das Alltagsleben zu ermöglichen.

Weitere methodische Überlegungen für zukünftige Studien wie hier dargestellt sind die Anzahl der Ziel Emotionen und das Antwortformularbei ausgewählt. Die aktuelle Studie umfasste vier primäre Gefühle: glücklich, traurig, wütend und ängstlich. Neutral wurde auch in der Filmclips Aufgabe ausgewertet. Diese Auswahl der Ziel Emotionen umfasst nur eine positive Emotion (dh., Glücklich) macht es schwierig , Ansprechgenauigkeit für positive im Vergleich zu negativen Emotionen zu vergleichen. Auch eine solche begrenzte Anzahl von Emotionen macht es einfacher für die Teilnehmer auf dem Ausschlussverfahren zu verlassen, wenn ihre Auswahl getroffen haben, eine Strategie, die nicht zuverlässig in alltäglichen Interaktionen verwendet werden könnten. Zukünftige Studien sollten von der Anzahl der Emotionen enthalten erweitern und sollten auch isolierte Gesichts- und Stimm Ausdrücke porträtiert neutral. Weiterhin nicht gut böse Film-Clips wurden von beiden Gruppen identifiziert, was darauf hindeutet, dass die sich Filmclips schlecht gewählt worden sein. Die durchschnittliche Erkennungsrate der böse Filmclips in der vorherigen Validierungsstudie von Zupan und Babbage Zupan, B. & Babbage, DR Emotion elicitation Reize aus Film cLippen und Erzähltext. Manuskript zu J Soc Psyc vorgelegt war nur 73% im Vergleich zu 85 bis 90% für die übrigen vier Kategorien. Frühere Studien Film - Clips auch mit Schwierigkeiten wütend Clips 33,44,45 Auswahl melden. Es bleibt unklar, warum es schwieriger ist Film-Clips auszuwählen, die hohe Identifikation der wütend führen. Es kann sein , weil wütend eine kompliziertere Emotion ist , die eine Reihe von sozialen Funktionen dient (z. B. im Vergleich zu behaupten Autorität ausdrücken Abneigung), erfordern die Wahrnehm eine Situation , in Bezug auf ihre Relevanz für ihre eigenen Glaubenssysteme 46 zu bewerten.

Darüber hinaus sollten künftige Studien prüfen, ob die Wertigkeit und Intensität der Filmclip Antworten gezeigt Einflüsse Teilnehmer, insbesondere für neutrale Clips. Während die aktuelle Studie keine Auswirkungen der Reihenfolge, in der zeigten die 15 Filmclips an die Teilnehmer gezeigt wurden, ist es immer noch möglich, dass einige Clips zu mehr Gefühle geführt habenEmpathie, was zu einem Effekt Übertrag, wenn der nächste Clip abgespielt wurde. Während wir die Teilnehmer einen Fragebogen haben ihre allgemeine Fähigkeit zur Empathie zu bewerten (siehe Neumann, Zupan, Malec und Hammond 47) Wir sind nicht speziell Teilnehmer gefragt hat , um anzuzeigen , ob sie mit den Zeichen hervorgehoben, und wenn ja, in welchem ​​Maße . Diese Fragen können vorsehen, einen besseren Einblick in die, warum unsere Ergebnisse zeigten die Teilnehmer mit TBI waren eher negative Reaktionen auf neutrale Reize zu bieten.

Die aktuelle Studie verwendet ein Forced-Choice-Antwort-Format, eine häufig verwendete Paradigma in Emotionserkennung Studien. Es ist möglich , dass die begrenzten Möglichkeiten Teilnehmer begrenzt eine einzige Emotion zu wählen , wenn sie das Vorhandensein von mehreren Emotionen 48 wahrgenommen. Darüber hinaus können sie haben ein Gefühl sie nicht wahrnehmen , anstatt wählen Sie die alternative Antwort ausgewählt (dh., Ich weiß es nicht). Mit einem Frei choice Antwortformat mit Menschen mit schweren Schädel - Hirn - Verletzung könnte zu zusätzlichen und / oder problematische Themen (zB Worterzeugung Schwierigkeiten;. lange Ströme von Erklärungen im Vergleich zu einem einzigen Wort). Daher könnte es am besten sein, zuerst ein Forced-Choice-Format übernehmen, bevor er auf den nächsten Punkt eine zusätzliche Frei Wahl Wort oder einen Kommentar hinzugefügt werden können.

Die Verwendung von Film-Clips in der aktuellen Studie war ein neuer Ansatz Emotionserkennung von Menschen mit TBI zu bewerten. Es wurde vermutet, dass die Menschen mit TBI würde die multimodale Natur der Filmclips komplexer und somit schwieriger als isolierte Gesichts- und Stimm Hinweise finden. Allerdings schlug die Ergebnisse, dass anstatt Verarbeitungsanforderungen zu erhöhen, die Anwesenheit von zahlreichen affektiven Cues, einschließlich Kontextinformationen, die Verarbeitung erleichtert. Doch in alltäglichen Situationen, wo eine Vielzahl von Hinweisen vermutlich vorhanden sind, ist Emotionserkennung ein wichtiges Thema für penschen mit TBI. Während also die Filmclips ökologisch gelten als isolierte Emotion Ausdrücke sind, sind sie nicht vollständig repräsentativ für die Cues in alltäglichen sozialen Interaktionen. Es könnte sein, dass die als ein Beobachter gegenüber einem Teilnehmer für eine bessere Integration der verfügbaren Emotion Cues ermöglicht.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
Diagnostic Analysis of Nonverbal Accuracy-2 Department of Pychology, Emory University. Atlanta, GA DANVA-Faces subtest, DANVA-Voices subtest
Computer Apple iMac Desktop, 27" display
Statistical Analysis Software SPSS University Licensed software for data analysis
Happy Film Clip 1 Sweet Home Alabama, D&D Films, 2002, Director: A Tennant A man surprises his girlfriend by proposing in a jewelry store
Happy Film Clip 2 Wedding Crashers, New Line Cinema, 2005, Director: D. Dobkin A couple is sitting on the beach and flirting while playing a hand game
Happy Film Clip 3 Reme-mber the Titans, Jerry Bruckheimer Films, 2000, Director: B. Yakin An African American football coach and his family are accepted by their community when the school team wins the football championship
Sad Film Clip 1 Grey's Anatomy, ABC, 2006, Director: P. Horton A father is only able to communicate with his family using his eyes. 
Sad Film Clip 2 Armageddon, Touchstone Pictures, 1998, Director: M. Bay A daughter is saying goodbye to her father who is in space on a dangerous mission
Sad Film Clip 3 Grey's Anatomy, ABC, 2006, Director: M. Tinker A woman is heartbroken her fiance has died
Angry Film Clip 1 Anne of Green Gables, Canadian Broadcast Corporation, 1985, Director: K. Sullivan An older woman speaks openly about a child's physical appearance in front of her
Angry Film Clip 2 Enough, Columbia Pictures, 2002, Director: M. Apted A wife confronts her husband about an affair when she smells another woman's perfume on his clothing
Angry Film Clip 3 Pretty Woman, Touchstone Pictures, 1990, Director: G. Marshall A call girl attempts to purchase clothing in an expensive boutique and is turned away
Fearful Film Clip 1 Blood Diamond, Warner Bros Pictures, 2006, Director: E. Zwick Numerous vehicles carrying militia approach a man and his son while they are out walking
Fearful Film Clip 2 The Life Before Her Eyes, 2929 Productions, 2007, Directors: V. Perelman Two teenaged gilrs are talking in the school bathroom when they hear gunshots that continue to get closer
Fearful Film Clip 3 The Sixth Sense, Barry Mendel Productions, 1999, Director: M. N. Shyamalan A young boy enters the kitchen in the middle of the night and finds his mother behaving very atypically
Neutral Film Clip 1 The Other Sister, Mandeville Films, 1999, Director: G. Marshall A mother and daughter are discussing an art book while sitting in their living room
Neutral Film Clip 2 The Game, Polygram Filmed Entertainment, 1999, Director: D. Fincher One gentleman is explaining the rules of a game to another
Neutral Film Clip 3 The Notebook, New Line Cinema, 2004, Director: N. Cassavetes An older gentleman and his doctor are conversing during a routine check-up

DOWNLOAD MATERIALS LIST

References

  1. Langlois, J., Rutland-Brown, W., Wald, M. The epidemiology and impact of traumatic brain injury: A brief overview. J. Head Trauma Rehabil. 21 (5), 375-378 (2006).
  2. Babbage, D. R., Yim, J., Zupan, B., Neumann, D., Tomita, M. R., Willer, B. Meta-analysis of facial affect recognition difficulties after traumatic brain injury. Neuropsychology. 25 (3), 277-285 (2011).
  3. Neumann, D., Zupan, B., Tomita, M., Willer, B. Training emotional processing in persons with brain injury. J. Head Trauma Rehabil. 24, 313-323 (2009).
  4. Bornhofen, C., McDonald, S. Treating deficits in emotion perception following traumatic brain injury. Neuropsychol Rehabil. 18 (1), 22-44 (2008).
  5. Zupan, B., Neumann, D., Babbage, D. R., Willer, B. The importance of vocal affect to bimodal processing of emotion: implications for individuals with traumatic brain injury. J Commun Disord. 42 (1), 1-17 (2009).
  6. Bibby, H., McDonald, S. Theory of mind after traumatic brain injury. Neuropsychologia. 43 (1), 99-114 (2005).
  7. Ferstl, E. C., Rinck, M., von Cramon, D. Y. Emotional and temporal aspects of situation model processing during text comprehension: an event-related fMRI study. J. Cogn. Neurosci. 17 (5), 724-739 (2005).
  8. Milders, M., Fuchs, S., Crawford, J. R. Neuropsychological impairments and changes in emotional and social behaviour following severe traumatic brain injury. J. Clin. Exp. Neuropsychol. 25 (2), 157-172 (2003).
  9. Spikman, J., Milders, M., Visser-Keizer, A., Westerhof-Evers, H., Herben-Dekker, M., van der Naalt, J. Deficits in facial emotion recognition indicate behavioral changes and impaired self-awareness after moderate to severe tramatic brain injury. PloS One. 8 (6), e65581 (2013).
  10. Zupan, B., Neumann, D. Affect Recognition in Traumatic Brain Injury: Responses to Unimodal and Multimodal Media. J. Head Trauma Rehabil. 29 (4), E1-E12 (2013).
  11. Radice-Neumann, D., Zupan, B., Babbage, D. R., Willer, B. Overview of impaired facial affect recognition in persons with traumatic brain injury. Brain Inj. 21 (8), 807-816 (2007).
  12. McDonald, S. Are You Crying or Laughing? Emotion Recognition Deficits After Severe Traumatic Brain Injury. Brain Impair. 6 (01), 56-67 (2005).
  13. Cunningham, D. W., Wallraven, C. Dynamic information for the recognition of conversational expressions. J. Vis. 9 (13), 1-17 (2009).
  14. Elfenbein, H. A., Marsh, A. A., Ambady, W. I. N. Emotional Intelligence and the Recognition of Emotion from Facid Expressions. The Wisdom in Feeling: Psychological Processes in Emotional Intelligence. , Guilford Press. New York. 37-59 (2002).
  15. McDonald, S., Saunders, J. C. Differential impairment in recognition of emotion across different media in people with severe traumatic brain injury. J. Int Neuropsycho. Soc. : JINS. 11 (4), 392-399 (2005).
  16. Williams, C., Wood, R. L. Impairment in the recognition of emotion across different media following traumatic brain injury. J. Clin. Exp. Neuropsychol. 32 (2), 113-122 (2010).
  17. Adolphs, R., Tranel, D., Damasio, A. R. Dissociable neural systems for recognizing emotions. Brain Cogn. 52 (1), 61-69 (2003).
  18. Biele, C., Grabowska, A. Sex differences in perception of emotion intensity in dynamic and static facial expressions. Exp. Brain Res. 171, 1-6 (2006).
  19. Collignon, O., Girard, S., et al. Audio-visual integration of emotion expression. Brain Res. 1242, 126-135 (2008).
  20. LaBar, K. S., Crupain, M. J., Voyvodic, J. T., McCarthy, G. Dynamic perception of facial affect and identity in the human brain. Cereb. Cortex. 13 (10), 1023-1033 (2003).
  21. Mayes, A. K., Pipingas, A., Silberstein, R. B., Johnston, P. Steady state visually evoked potential correlates of static and dynamic emotional face processing. Brain Topogr. 22 (3), 145-157 (2009).
  22. Sato, W., Yoshikawa, S. Enhanced Experience of Emotional Arousal in Response to Dynamic Facial Expressions. J. Nonverbal Behav. 31 (2), 119-135 (2007).
  23. Schulz, J., Pilz, K. S. Natural facial motion enhances cortical responses to faces. Exp. Brain Res. 194 (3), 465-475 (2009).
  24. O'Toole, A., Roark, D., Abdi, H. Recognizing moving faces: A psychological and neural synthesis. Trends Cogn. Sci. 6 (6), 261-266 (2002).
  25. Dimoska, A., McDonald, S., Pell, M. C., Tate, R. L., James, C. M. Recognizing vocal expressions of emotion in patients with social skills deficits following traumatic brain injury. J. Int. Neuropsyco. Soc.: JINS. 16 (2), 369-382 (2010).
  26. McDonald, S., Flanagan, S., Rollins, J., Kinch, J. TASIT: A new clinical tool for assessing social perception after traumatic brain injury. J. Head Trauma Rehab. 18 (3), 219-238 (2003).
  27. Channon, S., Pellijeff, A., Rule, A. Social cognition after head injury: sarcasm and theory of mind. Brain Lang. 93 (2), 123-134 (2005).
  28. Henry, J. D., Phillips, L. H., Crawford, J. R., Theodorou, G., Summers, F. Cognitive and psychosocial correlates of alexithymia following traumatic brain injury. Neuropsychologia. 44 (1), 62-72 (2006).
  29. Martìn-Rodrìguez, J. F., Leòn-Carriòn, J. Theory of mind deficits in patients with acquired brain injury: a quantitative review. Neuropsychologia. 48 (5), 1181-1191 (2010).
  30. McDonald, S., Flanagan, S. Social perception deficits after traumatic brain injury: interaction between emotion recognition, mentalizing ability, and social communication. Neuropsychology. 18 (3), 572-579 (2004).
  31. Milders, M., Ietswaart, M., Crawford, J. R., Currie, D. Impairments in theory of mind shortly after traumatic brain injury and at 1-year follow-up. Neuropsychology. 20 (4), 400-408 (2006).
  32. Nowicki, S. The Manual for the Receptive Tests of the Diagnostic Analysis of Nonverbal Accuracy 2 (DANVA2). , (2008).
  33. Gross, J. J., Levenson, R. W. Emotion Elicitation Using Films. Cogn. Emot. 9 (1), 87-108 (1995).
  34. Spell, L. A., Frank, E. Recognition of Nonverbal Communication of Affect Following Traumatic Brain Injury. J. Nonverbal Behav. 24 (4), 285-300 (2000).
  35. Edgar, C., McRorie, M., Sneddon, I. Emotional intelligence, personality and the decoding of non-verbal expressions of emotion. Pers. Ind. Dif. 52, 295-300 (2012).
  36. Nowicki, S., Mitchell, J. Accuracy in Identifying Affect in Child and Adult Faces and Voices and Social Competence in Preschool Children. Genet. Soc. Gen. Psychol. 124 (1), (1998).
  37. Astesano, C., Besson, M., Alter, K. Brain potentials during semantic and prosodic processing in French. Cogn. Brain Res. 18, 172-184 (2004).
  38. Kotz, S. A., Paulmann, S. When emotional prosody and semantics dance cheek to cheek: ERP evidence. Brain Res. 115, 107-118 (2007).
  39. Paulmann, S., Pell, M. D., Kotz, S. How aging affects the recognition of emotional speech. Brain Lang. 104 (3), 262-269 (2008).
  40. Pell, M. D., Jaywant, A., Monetta, L., Kotz, S. A. Emotional speech processing: disentangling the effects of prosody and semantic cues. Cogn. Emot. 25 (5), 834-853 (2011).
  41. Bänziger, T., Scherer, K. R. Using Actor Portrayals to Systematically Study Multimodal Emotion Expression: The GEMEP Corpus. Affective Computing and Intelligent Interaction, LNCS 4738. , 476-487 (2007).
  42. Busselle, R., Bilandzic, H. Fictionality and Perceived Realism in Experiencing Stories: A Model of Narrative Comprehension and Engagement. Commun. Theory. 18 (2), 255-280 (2008).
  43. Zagalo, N., Barker, A., Branco, V. Story reaction structures to emotion detection. Proceedings of the 1st ACM Work. Story Represent. Mech. Context - SRMC. 04, 33-38 (2004).
  44. Hagemann, D., Naumann, E., Maier, S., Becker, G., Lurken, A., Bartussek, D. The Assessment of Affective Reactivity Using Films: Validity, Reliability and Sex Differences. Pers. Ind. Dif. 26, 627-639 (1999).
  45. Hewig, J., Hagemann, D., Seifert, J., Gollwitzer, M., Naumann, E., Bartussek, D. Brief Report. A revised film set for the induction of basic emotions. Cogn. Emot. 19 (7), 1095-1109 (2005).
  46. Wranik, T., Scherer, K. R. Why Do I Get Angry? A Componential Appraisal Approach. International Handbook of Anger. , 243-266 (2010).
  47. Neumann, D., Zupan, B., Malec, J. F., Hammond, F. M. Relationships between alexithymia, affect recognition, and empathy after traumatic brain injury. J. Head Trauma Rehabil. 29 (1), E18-E27 (2013).
  48. Russell, J. A. Is there universal recognition of emotion from facial expression? A review of the cross-cultural studies. Psychol. Bull. 115 (1), 102-141 (1994).

Tags

Verhalten Heft 111 Emotion Anerkennung isoliert Mimik isoliert vocal Emotionen Ausdrücken kontextuelle Cues Filmclips Schädel-Hirn-Verletzung
Erforschung der Verwendung isolierter Ausdrücke und Film-Clips Emotionserkennung mit Schädel-Hirn-Verletzung von Personen zur Bewertung
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Zupan, B., Neumann, D. Exploring the More

Zupan, B., Neumann, D. Exploring the Use of Isolated Expressions and Film Clips to Evaluate Emotion Recognition by People with Traumatic Brain Injury. J. Vis. Exp. (111), e53774, doi:10.3791/53774 (2016).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter