Summary

Esplorare l'uso di espressioni Isolati e filmati per valutare Emotion Recognition da persone con trauma cranico

Published: May 15, 2016
doi:

Summary

Questo documento descrive come implementare una serie di compiti comportamentali per esaminare il riconoscimento emozione di isolati emozione espressioni facciali e vocali, e un compito romanzo utilizzando televisivi e cinematografici clip commerciali per valutare il riconoscimento emozione multimodale che include segnali contestuali.

Abstract

L'attuale studio presentato 60 persone con lesioni traumatiche cerebrali (TBI) e 60 controlli con isolate espressioni di emozione facciali, isolate emozione espressioni vocali, e multimodale (cioè., Filmati) stimoli che comprendeva segnali contestuali. Tutti gli stimoli sono stati presentati per via telematica. I partecipanti sono stati tenuti a indicare come la persona in ogni stimolo si sentiva utilizzando un formato a scelta forzata. Inoltre, per i filmati, i partecipanti dovevano indicare come hanno ritenuto in risposta allo stimolo, e il livello di intensità con cui essi hanno sperimentato questa emozione.

Introduction

Traumatica lesioni cerebrali (TBI) colpisce circa 10 milioni di persone ogni anno in tutto il mondo 1. A seguito di trauma cranico, la capacità di riconoscere le emozioni negli altri che utilizzano segnali non verbali, come le espressioni facciali e vocali (es., Il tono della voce), e segnali contestuali, è spesso compromessa in modo significativo 2-7. Dal momento che le interazioni interpersonali di successo e relazioni di qualità sono almeno in parte dipende dalla precisa interpretazione delle emozioni degli altri 7-10, non è sorprendente che la difficoltà con riconoscimento delle emozioni è stato segnalato per contribuire ai poveri risultati sociali comunemente riportati dopo TBI 3,8, 11,12.

Gli studi che indagano riconoscimento delle emozioni da parte di persone con TBI hanno avuto la tendenza a concentrarsi su spunti isolati, in particolare il riconoscimento delle espressioni facciali emozione utilizzando fotografie statiche 2. Anche se questo lavoro è stato importante per informare lo sviluppo di trattamenti programmi, non adeguatamente rappresentare la capacità di riconoscere e interpretare segnali non verbali di emozioni nelle interazioni quotidiane. Non solo immagini statiche forniscono maggiore tempo per interpretare l'emozione ritratta, ma anche in genere ritraggono solo l'apice (es., Massima rappresentazione) delle espressioni 13-16. Inoltre, le immagini statiche mancano gli spunti temporali che si verificano con il movimento 12,13,15, e non sono rappresentative delle rapidamente mutevoli espressioni facciali delle emozioni incontrate in situazioni quotidiane. Inoltre, ci sono prove per indicare che le espressioni visive statiche e dinamiche vengono elaborati in diverse aree del cervello, con risposte più precise agli stimoli dinamica 17-24.

Vocal riconoscimento delle emozioni da parte di persone con trauma cranico è stato anche studiato, con e senza contenuto verbale significativo. È stato suggerito che la presenza di contenuto verbale aumenta richieste percettive perchè inte accuraterpretation richiede l'elaborazione simultanea del tono di voce non verbale con il contenuto semantico inclusi nel messaggio verbale 25. Mentre molti studi hanno dimostrato una migliore riconoscimento della voce influenzare in assenza di contenuto verbale significativo, Dimoska et al 25. Trovato alcuna differenza in termini di prestazioni. Essi sostengono che le persone con trauma cranico hanno una polarizzazione verso contenuto semantico in frasi affettivi; quindi, anche se il contenuto è semanticamente neutro o eliminati, continuano a concentrarsi sulle informazioni verbali nella frase. Così, i loro risultati non hanno mostrato chiaramente se significativo contenuto verbale aiuta o ostacola emozione espressione vocale.

Oltre al contenuto verbale significativo che può accompagnare i segnali vocali non verbali, il contesto è prevista anche attraverso la situazione sociale stessa. contesto situazionale fornisce informazioni sulle circostanze in cui l'espressione emozione è stata prodotta e può così notevolmente aFluence l'interpretazione dell'espressione. Quando si valuta come qualcuno si sente, usiamo contesto per determinare se la situazione è in linea con desideri e le aspettative di quella persona. Questo riguarda in ultima analisi, come qualcuno si sente, quindi la conoscenza del contesto situazionale dovrebbe tradursi in più accurata di inferenza delle emozioni degli altri 26. La capacità di fare questo viene indicato come teoria della mente, un costrutto trovati ad essere significativamente ridotta dopo TBI 6,27-31. Milders et al. 8,31 di rapporto che le persone con trauma cranico hanno notevole difficoltà a dare giudizi precisi circa e capire le intenzioni ei sentimenti dei personaggi di storie brevi.

Anche se questi studi hanno evidenziato deficit nella trasformazione emozione non verbale e della situazione, è difficile generalizzare i risultati di interazioni sociali quotidiane in cui questi segnali si verificano uno accanto all'altro e all'interno di un contesto sociale. Per capire meglio come personecon TBI interpretare emozioni nelle interazioni sociali quotidiane, abbiamo bisogno di utilizzare stimoli che sono multimodale in natura. Solo due studi precedenti hanno incluso stimoli multimodali come parte della loro indagine sul modo in cui le persone con TBI spunti processo di emozione. McDonald e Saunders 15 e Williams e legno 16 estratti stimoli dal Emotion test di valutazione (EET), che fa parte della consapevolezza del sociale Inference test 26. La EET è costituito da vignette videoregistrate che mostrano maschili e femminili attori che interpretano segnali non verbali emozione e impegnarsi in una conversazione. Il contenuto verbale nelle conversazioni è semanticamente neutra; spunti su come gli attori si sentono e informazioni contestuali non sono forniti. Quindi, la necessità di elaborare e integrare contenuto verbale significativo e contemporaneamente fare questo con i segnali facciali e vocali non verbali è stato eliminato. I risultati di questi studi hanno indicato che le persone con trauma cranico erano RILIEVOtly meno accurato rispetto ai controlli nella loro capacità di identificare l'emozione da stimoli multimodali. Dal momento che né studio considerata l'influenza delle informazioni semantico o contestuale sulla interpretazione delle espressioni di emozione, non è chiaro se l'aggiunta di questo tipo di informazioni faciliterebbe di trasformazione per aumentare la ridondanza intersensoriale o negativamente influenzare la percezione a causa dei maggiori vincoli cognitivi.

Questo articolo delinea una serie di attività utilizzate per confrontare la percezione di spunti emozionali facciali e vocali in isolamento, e la percezione di questi segnali che si verificano simultaneamente nel contesto situazionale significativo. I compiti isolamenti sono parte di un test più ampio di riconoscimento delle emozioni non verbale – l'analisi diagnostica di Precisione non verbale 2 (DANVA2) 32. In questo protocollo, abbiamo utilizzato i volti adulti (DANVA-Faces) e per adulti paralanguage (DANVA-voci) test secondari. Ciascuno di questi subtests include 24 stimoli,raffigurante sei rappresentazioni ciascuno di emozioni felici, tristi, arrabbiati e impauriti. Il DANVA2 richiede ai partecipanti di identificare l'emozione ritratta con una scelta forzata formato (4 scelte). Qui, una quinta opzione (non so) è previsto per entrambi i test. La quantità di tempo è stato mostrato ogni espressione del viso è stato aumentato da due secondi a cinque secondi per assicurarsi che stavamo valutando influenzano il riconoscimento e non la velocità di elaborazione. Non abbiamo alterare il test secondario adulto paralanguage al di là aggiungendo la scelta aggiuntiva in formato risposta scelta forzata. I partecipanti hanno ascoltato ogni frase una sola volta. I commenti non è stato fornito in entrambi i compiti.

Filmati sono stati usati per valutare la percezione dei segnali emozioni facciali e vocali che si verificano simultaneamente nel contesto situazionale. Mentre il contenuto verbale all'interno di queste clip non esplicitamente dichiarare ciò che sentivano i personaggi dei clip, è stato significativo per il contesto situazionale. Quindici clip estratti da cofilm mmercial e serie televisive sono stati inclusi nello studio, ciascuna che vanno 45-103 (media = 71.87) secondi. I commenti non è stato fornito ai partecipanti nel corso di questo compito. C'erano tre clip in rappresentanza di ciascuna delle seguenti categorie di emozione: felice, triste, arrabbiato, paura, neutrale. Queste clip sono stati scelti sulla base dei risultati di uno studio condotto con i giovani adulti (n = 70) Zupan, B. & Babbage, DR Emozione elicitazione stimoli da filmati e testo narrativo. Manoscritto sottoposto a J Soc Psyc. In questo studio, i partecipanti sono stati presentati con sei filmati per ciascuna delle categorie di destinazione emozione, e sei filmati neutri, che vanno da 24 a 127 secondi (media = 77,3 secondi). Mentre l'obiettivo era quello di includere relativamente brevi filmati, ogni clip scelti per l'inclusione bisogno di avere sufficienti informazioni contestuali che potrebbe essere compreso dagli spettatori senza avere ulteriori conoscenze del film da cui è stata presa 33.

<p class = "jove_content"> I clip selezionati per questo studio erano stati correttamente identificati nei Zupan e Babbage studio Emotion stimoli elicitazione da filmati e testo narrativo, citata come l'emozione di destinazione tra il 83 e il 89% per il felice, 86-93 % per triste, 63-93% per arrabbiato, 77 – 96% per la paura, e l'81 – 87% per il neutro. Pur avendo lo stesso numero di esemplari di ogni categoria emozioni come era nei compiti DANVA2 (n = 6) sarebbe stato ideale, abbiamo optato per solo tre a causa della maggiore lunghezza degli stimoli filmato rispetto a stimoli nei DANVA-Faces e compiti DANVA-voci.

I dati provenienti da queste attività sono stati raccolti da 60 partecipanti con TBI e 60 di età e sesso abbinati controlli. I partecipanti sono stati visti individualmente o in piccoli gruppi (max = 3) e l'ordine delle tre attività è stato randomizzato tra le sessioni di test.

Protocol

Questo protocollo è stato approvato dalle commissioni di revisione istituzionali a Brock University e al Carolinas riabilitazione. 1. Prima di Testing Creare 3 liste separate per i filmati 15, ogni elenco dei clip in un diverso ordine limitato. Assicurarsi che ogni lista inizia e finisce con uno stimolo neutro e che non esistono due clip che hanno come target la stessa emozione si verificano consecutivamente. Creare una cartella separata sul desktop per ogni e…

Representative Results

Questa batteria compito è stato utilizzato per confrontare il riconoscimento emozione per emozione espressioni isolati (ad esempio, faccia sola,. Voice-only) e espressioni di emozione combinati (. Cioè, volto e la voce) che si verificano in un contesto situazionale. Un totale di 60 (37 maschi e 23 femmine) i partecipanti con moderata a grave trauma cranico di età compresa tra 21 e 63 anni tra (media = 40.98) e 60 (38 maschi e 22 femmine) di età Controlli -matched (r…

Discussion

Il manoscritto descrive tre compiti utilizzati per valutare le capacità di riconoscimento emozione di persone con trauma cranico. L'obiettivo del metodo descritto è stato quello di confrontare l'accuratezza di risposta per spunti emozionali facciali e vocali in isolamento, alla percezione di questi segnali che si verificano simultaneamente nel contesto situazionale significativo. Filmati sono stati inclusi in questo studio perché il loro ravvicinamento delle situazioni quotidiane li ha resi più ecologicament…

Disclosures

The authors have nothing to disclose.

Acknowledgements

This work was supported by the Humanities Research Institute at Brock University in St. Catharines, Ontario, Canada and by the Cannon Research Center at Carolinas Rehabilitation in Charlotte, North Carolina, USA.

Materials

Diagnostic Analysis of Nonverbal Accuracy-2 Department of Pychology, Emory University. Atlanta, GA DANVA-Faces subtest, DANVA-Voices subtest
Computer Apple iMac Desktop, 27" display
Statistical Analysis Software SPSS University Licensed software for data analysis
Happy Film Clip 1 Sweet Home Alabama, D&D Films, 2002, Director: A Tennant A man surprises his girlfriend by proposing in a jewelry store
Happy Film Clip 2 Wedding Crashers, New Line Cinema, 2005, Director: D. Dobkin A couple is sitting on the beach and flirting while playing a hand game
Happy Film Clip 3 Reme-mber the Titans, Jerry Bruckheimer Films, 2000, Director: B. Yakin An African American football coach and his family are accepted by their community when the school team wins the football championship
Sad Film Clip 1 Grey's Anatomy, ABC, 2006, Director: P. Horton A father is only able to communicate with his family using his eyes. 
Sad Film Clip 2 Armageddon, Touchstone Pictures, 1998, Director: M. Bay A daughter is saying goodbye to her father who is in space on a dangerous mission
Sad Film Clip 3 Grey's Anatomy, ABC, 2006, Director: M. Tinker A woman is heartbroken her fiance has died
Angry Film Clip 1 Anne of Green Gables, Canadian Broadcast Corporation, 1985, Director: K. Sullivan An older woman speaks openly about a child's physical appearance in front of her
Angry Film Clip 2 Enough, Columbia Pictures, 2002, Director: M. Apted A wife confronts her husband about an affair when she smells another woman's perfume on his clothing
Angry Film Clip 3 Pretty Woman, Touchstone Pictures, 1990, Director: G. Marshall A call girl attempts to purchase clothing in an expensive boutique and is turned away
Fearful Film Clip 1 Blood Diamond, Warner Bros Pictures, 2006, Director: E. Zwick Numerous vehicles carrying militia approach a man and his son while they are out walking
Fearful Film Clip 2 The Life Before Her Eyes, 2929 Productions, 2007, Directors: V. Perelman Two teenaged gilrs are talking in the school bathroom when they hear gunshots that continue to get closer
Fearful Film Clip 3 The Sixth Sense, Barry Mendel Productions, 1999, Director: M. N. Shyamalan A young boy enters the kitchen in the middle of the night and finds his mother behaving very atypically
Neutral Film Clip 1 The Other Sister, Mandeville Films, 1999, Director: G. Marshall A mother and daughter are discussing an art book while sitting in their living room
Neutral Film Clip 2 The Game, Polygram Filmed Entertainment, 1999, Director: D. Fincher One gentleman is explaining the rules of a game to another
Neutral Film Clip 3 The Notebook, New Line Cinema, 2004, Director: N. Cassavetes An older gentleman and his doctor are conversing during a routine check-up

References

  1. Langlois, J., Rutland-Brown, W., Wald, M. The epidemiology and impact of traumatic brain injury: A brief overview. J. Head Trauma Rehabil. 21 (5), 375-378 (2006).
  2. Babbage, D. R., Yim, J., Zupan, B., Neumann, D., Tomita, M. R., Willer, B. Meta-analysis of facial affect recognition difficulties after traumatic brain injury. Neuropsychology. 25 (3), 277-285 (2011).
  3. Neumann, D., Zupan, B., Tomita, M., Willer, B. Training emotional processing in persons with brain injury. J. Head Trauma Rehabil. 24, 313-323 (2009).
  4. Bornhofen, C., McDonald, S. Treating deficits in emotion perception following traumatic brain injury. Neuropsychol Rehabil. 18 (1), 22-44 (2008).
  5. Zupan, B., Neumann, D., Babbage, D. R., Willer, B. The importance of vocal affect to bimodal processing of emotion: implications for individuals with traumatic brain injury. J Commun Disord. 42 (1), 1-17 (2009).
  6. Bibby, H., McDonald, S. Theory of mind after traumatic brain injury. Neuropsychologia. 43 (1), 99-114 (2005).
  7. Ferstl, E. C., Rinck, M., von Cramon, D. Y. Emotional and temporal aspects of situation model processing during text comprehension: an event-related fMRI study. J. Cogn. Neurosci. 17 (5), 724-739 (2005).
  8. Milders, M., Fuchs, S., Crawford, J. R. Neuropsychological impairments and changes in emotional and social behaviour following severe traumatic brain injury. J. Clin. Exp. Neuropsychol. 25 (2), 157-172 (2003).
  9. Spikman, J., Milders, M., Visser-Keizer, A., Westerhof-Evers, H., Herben-Dekker, M., van der Naalt, J. Deficits in facial emotion recognition indicate behavioral changes and impaired self-awareness after moderate to severe tramatic brain injury. PloS One. 8 (6), e65581 (2013).
  10. Zupan, B., Neumann, D. Affect Recognition in Traumatic Brain Injury: Responses to Unimodal and Multimodal Media. J. Head Trauma Rehabil. 29 (4), E1-E12 (2013).
  11. Radice-Neumann, D., Zupan, B., Babbage, D. R., Willer, B. Overview of impaired facial affect recognition in persons with traumatic brain injury. Brain Inj. 21 (8), 807-816 (2007).
  12. McDonald, S. Are You Crying or Laughing? Emotion Recognition Deficits After Severe Traumatic Brain Injury. Brain Impair. 6 (01), 56-67 (2005).
  13. Cunningham, D. W., Wallraven, C. Dynamic information for the recognition of conversational expressions. J. Vis. 9 (13), 1-17 (2009).
  14. Elfenbein, H. A., Marsh, A. A., Ambady, W. I. N. Emotional Intelligence and the Recognition of Emotion from Facid Expressions. The Wisdom in Feeling: Psychological Processes in Emotional Intelligence. , 37-59 (2002).
  15. McDonald, S., Saunders, J. C. Differential impairment in recognition of emotion across different media in people with severe traumatic brain injury. J. Int Neuropsycho. Soc. : JINS. 11 (4), 392-399 (2005).
  16. Williams, C., Wood, R. L. Impairment in the recognition of emotion across different media following traumatic brain injury. J. Clin. Exp. Neuropsychol. 32 (2), 113-122 (2010).
  17. Adolphs, R., Tranel, D., Damasio, A. R. Dissociable neural systems for recognizing emotions. Brain Cogn. 52 (1), 61-69 (2003).
  18. Biele, C., Grabowska, A. Sex differences in perception of emotion intensity in dynamic and static facial expressions. Exp. Brain Res. 171, 1-6 (2006).
  19. Collignon, O., Girard, S., et al. Audio-visual integration of emotion expression. Brain Res. 1242, 126-135 (2008).
  20. LaBar, K. S., Crupain, M. J., Voyvodic, J. T., McCarthy, G. Dynamic perception of facial affect and identity in the human brain. Cereb. Cortex. 13 (10), 1023-1033 (2003).
  21. Mayes, A. K., Pipingas, A., Silberstein, R. B., Johnston, P. Steady state visually evoked potential correlates of static and dynamic emotional face processing. Brain Topogr. 22 (3), 145-157 (2009).
  22. Sato, W., Yoshikawa, S. Enhanced Experience of Emotional Arousal in Response to Dynamic Facial Expressions. J. Nonverbal Behav. 31 (2), 119-135 (2007).
  23. Schulz, J., Pilz, K. S. Natural facial motion enhances cortical responses to faces. Exp. Brain Res. 194 (3), 465-475 (2009).
  24. O’Toole, A., Roark, D., Abdi, H. Recognizing moving faces: A psychological and neural synthesis. Trends Cogn. Sci. 6 (6), 261-266 (2002).
  25. Dimoska, A., McDonald, S., Pell, M. C., Tate, R. L., James, C. M. Recognizing vocal expressions of emotion in patients with social skills deficits following traumatic brain injury. J. Int. Neuropsyco. Soc.: JINS. 16 (2), 369-382 (2010).
  26. McDonald, S., Flanagan, S., Rollins, J., Kinch, J. TASIT: A new clinical tool for assessing social perception after traumatic brain injury. J. Head Trauma Rehab. 18 (3), 219-238 (2003).
  27. Channon, S., Pellijeff, A., Rule, A. Social cognition after head injury: sarcasm and theory of mind. Brain Lang. 93 (2), 123-134 (2005).
  28. Henry, J. D., Phillips, L. H., Crawford, J. R., Theodorou, G., Summers, F. Cognitive and psychosocial correlates of alexithymia following traumatic brain injury. Neuropsychologia. 44 (1), 62-72 (2006).
  29. Martìn-Rodrìguez, J. F., Leòn-Carriòn, J. Theory of mind deficits in patients with acquired brain injury: a quantitative review. Neuropsychologia. 48 (5), 1181-1191 (2010).
  30. McDonald, S., Flanagan, S. Social perception deficits after traumatic brain injury: interaction between emotion recognition, mentalizing ability, and social communication. Neuropsychology. 18 (3), 572-579 (2004).
  31. Milders, M., Ietswaart, M., Crawford, J. R., Currie, D. Impairments in theory of mind shortly after traumatic brain injury and at 1-year follow-up. Neuropsychology. 20 (4), 400-408 (2006).
  32. Nowicki, S. . The Manual for the Receptive Tests of the Diagnostic Analysis of Nonverbal Accuracy 2 (DANVA2). , (2008).
  33. Gross, J. J., Levenson, R. W. Emotion Elicitation Using Films. Cogn. Emot. 9 (1), 87-108 (1995).
  34. Spell, L. A., Frank, E. Recognition of Nonverbal Communication of Affect Following Traumatic Brain Injury. J. Nonverbal Behav. 24 (4), 285-300 (2000).
  35. Edgar, C., McRorie, M., Sneddon, I. Emotional intelligence, personality and the decoding of non-verbal expressions of emotion. Pers. Ind. Dif. 52, 295-300 (2012).
  36. Nowicki, S., Mitchell, J. Accuracy in Identifying Affect in Child and Adult Faces and Voices and Social Competence in Preschool Children. Genet. Soc. Gen. Psychol. 124 (1), (1998).
  37. Astesano, C., Besson, M., Alter, K. Brain potentials during semantic and prosodic processing in French. Cogn. Brain Res. 18, 172-184 (2004).
  38. Kotz, S. A., Paulmann, S. When emotional prosody and semantics dance cheek to cheek: ERP evidence. Brain Res. 115, 107-118 (2007).
  39. Paulmann, S., Pell, M. D., Kotz, S. How aging affects the recognition of emotional speech. Brain Lang. 104 (3), 262-269 (2008).
  40. Pell, M. D., Jaywant, A., Monetta, L., Kotz, S. A. Emotional speech processing: disentangling the effects of prosody and semantic cues. Cogn. Emot. 25 (5), 834-853 (2011).
  41. Bänziger, T., Scherer, K. R. Using Actor Portrayals to Systematically Study Multimodal Emotion Expression: The GEMEP Corpus. Affective Computing and Intelligent Interaction, LNCS 4738. , 476-487 (2007).
  42. Busselle, R., Bilandzic, H. Fictionality and Perceived Realism in Experiencing Stories: A Model of Narrative Comprehension and Engagement. Commun. Theory. 18 (2), 255-280 (2008).
  43. Zagalo, N., Barker, A., Branco, V. Story reaction structures to emotion detection. Proceedings of the 1st ACM Work. Story Represent. Mech. Context – SRMC. 04, 33-38 (2004).
  44. Hagemann, D., Naumann, E., Maier, S., Becker, G., Lurken, A., Bartussek, D. The Assessment of Affective Reactivity Using Films: Validity, Reliability and Sex Differences. Pers. Ind. Dif. 26, 627-639 (1999).
  45. Hewig, J., Hagemann, D., Seifert, J., Gollwitzer, M., Naumann, E., Bartussek, D. Brief Report. A revised film set for the induction of basic emotions. Cogn. Emot. 19 (7), 1095-1109 (2005).
  46. Wranik, T., Scherer, K. R. Why Do I Get Angry? A Componential Appraisal Approach. International Handbook of Anger. , 243-266 (2010).
  47. Neumann, D., Zupan, B., Malec, J. F., Hammond, F. M. Relationships between alexithymia, affect recognition, and empathy after traumatic brain injury. J. Head Trauma Rehabil. 29 (1), E18-E27 (2013).
  48. Russell, J. A. Is there universal recognition of emotion from facial expression? A review of the cross-cultural studies. Psychol. Bull. 115 (1), 102-141 (1994).

Play Video

Cite This Article
Zupan, B., Neumann, D. Exploring the Use of Isolated Expressions and Film Clips to Evaluate Emotion Recognition by People with Traumatic Brain Injury. J. Vis. Exp. (111), e53774, doi:10.3791/53774 (2016).

View Video