Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Modulation der neurophysiologischen Reaktion auf ängstliche und belastende Reize durch repetitives religiöses Chanten

Published: November 4, 2021 doi: 10.3791/62960

ERRATUM NOTICE

Summary

Die vorliegende ERP-Studie (Event-Related Potential) bietet ein einzigartiges Protokoll für die Untersuchung, wie religiöses Chanten negative Emotionen modulieren kann. Die Ergebnisse zeigen, dass das späte positive Potential (LPP) eine robuste neurophysiologische Reaktion auf negative emotionale Reize ist und durch wiederholtes religiöses Chanten effektiv moduliert werden kann.

Abstract

In neuropsychologischen Experimenten ist das späte positive Potential (LPP) eine ereignisbezogene Potenzialkomponente (ERP), die das Niveau der emotionalen Erregung widerspiegelt. Diese Studie untersucht, ob repetitives religiöses Chanten die emotionale Reaktion auf angst- und stressprovozierende Reize moduliert und so zu einem weniger reaktionsschnellen LPP führt. Einundzwanzig Teilnehmer mit mindestens einem Jahr Erfahrung im sich wiederholenden religiösen Gesang von "Amitabha Buddha" wurden rekrutiert. Ein 128-Kanal-Elektroenzephalographie-System (EEG) wurde verwendet, um EEG-Daten zu sammeln. Die Teilnehmer wurden angewiesen, negative oder neutrale Bilder aus dem International Affective Picture System (IAPS) unter drei Bedingungen zu betrachten: sich wiederholendes religiöses Chanten, repetitives nichtreligiöses Chanten und kein Chanten. Die Ergebnisse zeigten, dass das Betrachten der negativen angst- und stressprovozierenden Bilder bei den Teilnehmern zu größeren LPPs führte als das Betrachten neutraler Bilder unter den Bedingungen ohne Gesang und nicht religiöses Chanten. Diese erhöhte LPP verschwand jedoch weitgehend unter sich wiederholenden religiösen Gesangsbedingungen. Die Ergebnisse deuten darauf hin, dass wiederholtes religiöses Chanten die neurophysiologische Reaktion auf ängstliche oder stressige Situationen für Praktizierende effektiv lindern kann.

Introduction

Das späte positive Potential (LPP) wird seit langem von emotionaler Erregung begleitet und in der emotionsbezogenen Forschung zuverlässig genutzt1,2. Religiöse Praxis ist sowohl in östlichen als auch in westlichen Ländern weit verbreitet. Es wird behauptet, dass es die Angst und den Stress des Praktizierenden lindern kann, wenn er mit unerwünschten Ereignissen konfrontiert ist, insbesondere in schwierigen Zeiten3. Nichtsdestotrotz wurde dies selten unter strengen experimentellen Einstellungen nachgewiesen.

Zahlreiche Studien haben bestätigt, dass Emotionsregulation mit verschiedenen Strategien und Frameworks erlernt werden kann4,5,6. Einige Studien haben gezeigt, dass Achtsamkeit und Meditation die neuronale Reaktion auf affektive Ereignisse modulieren können7,8. Kürzlich wurde festgestellt, dass Meditationspraktiker andere Emotionsmodulationsstrategien als kognitive Beurteilung, Unterdrückung und Ablenkung anwenden können8,9. Reize aus dem International Affective Picture System (IAPS) können verwendet werden, um positive oder negative Emotionen zuverlässig hervorzurufen, und es gibt Standardkriterien, um entworfene Bilder mit bestimmten Valenz- und Erregungsniveaus in der affektiven Forschung zu finden10.

Emotionale Reize können frühe und spätere Reaktionen im Gehirn hervorrufen3,11. In ähnlicher Weise führte die tradition des Buddhismus eine analoge Analyse der Gedanken des Geistes durch anfängliche und sekundäre mentale Prozesse durch3,12,13 durch. Die Sallatha Sutta (Die Pfeilsutta), ein früher buddhistischer Text, erwähnt, dass kognitives Training Emotionen zähmen kann. Die Arrow Sutta besagt, dass sowohl ein gut ausgebildeter buddhistischer Praktizierender als auch eine untrainierte Person eine anfängliche und negative Schmerzwahrnehmung erfahren, wenn sie einem schädlichen Ereignis gegenüberstehen13. Dieser unvermeidliche Anfangsschmerz ähnelt einer Person, die von einem Pfeil getroffen wird, wie in der Sallatha Sutta beschrieben. Frühe Wahrnehmungsschmerzen sind identisch mit dem Stadium der frühen Verarbeitung, wenn eine Person ein sehr negatives Bild sieht. Frühe neuronale Verarbeitung löst normalerweise eine N1-Komponente aus. Untrainierte Personen können übermäßige Emotionen wie Sorgen, Angstzustände und Stress entwickeln, nachdem sie die anfänglichen, unvermeidlichen schmerzhaften Gefühle erlebt haben. Laut der Sallatha Sutta ist diese sich spät entwickelnde negative Emotion oder dieser psychische Schmerz wie ein Schlag von einem zweiten Pfeil. Ein ereignisbezogenes Potenzialexperiment (ERP) kann die frühen und späteren psychologischen Prozesse des aktuellen Designs erfassen, vorausgesetzt, dass N1 und LPP den beiden oben genannten Pfeilen entsprechen könnten.

In diesem Protokoll wurde das wiederholte Chanten des Namens "Amitabha Buddha" (Sanskit: Amitābha) gewählt, um die mögliche Wirkung des religiösen Chantens zu testen, wenn sich eine Person in einer ängstlichen oder stressigen Situation befindet. Dieser religiöse Gesang ist eine der beliebtesten Praktiken von Personen mit religiöser Orientierung unter chinesischen Buddhisten und eine Kernpraxis des ostasiatischen Reinland-Buddhismus14. Es wurde die Hypothese aufgestellt, dass sich wiederholendes religiöses Chanten die Gehirnreaktion auf provozierende Reize reduzieren würde, nämlich das LPP, das durch ängstliche oder stressige Bilder induziert wird. Sowohl EEG- als auch Elektrokardiogramm-Daten (EKG) wurden gesammelt, um die neurophysiologischen Reaktionen der Teilnehmer unter verschiedenen Bedingungen zu bewerten.

Protocol

Diese ERP-Studie wurde vom Institutional Review Board der University of Hong Kong genehmigt. Vor der Teilnahme an dieser Studie unterzeichneten alle Teilnehmer eine schriftliche Einverständniserklärung.

1. Versuchsplanung

  1. Teilnehmer rekrutieren
    1. Rekrutiere Teilnehmer mit mindestens 1 Jahr (~ 200-3.000 h) Erfahrung im Chanten des Namens "Amitabha Buddha" für diese Studie.
      ANMERKUNG: In der vorliegenden Studie wurden 21 menschliche Teilnehmer im Alter von 40 bis 52 Jahren ausgewählt; 11 waren Männer.
  2. Religiöses Chanten vs. nichtreligiöses Chanten
    1. Chanten Sie den Namen "Amitabha Buddha" für 40 s. Erste 20 s mit dem Bild von Amitabha Buddha und die nächsten 20 s mit IAPS Bildern.
      1. Chanten Sie nur vier Zeichen des Namens "Amitabha Buddha", während Sie das Bild des Amitabha Buddha in der Pureland-Schule betrachten14.
    2. Chanten Sie den Namen des Weihnachtsmannes (nicht-religiöse Gesangsbedingung) für 40 s. Erste 20 s beim Betrachten des Bildes des Weihnachtsmannes und die nächsten 20 s mit IAPS-Bildern.
      1. Chanten Sie nur vier Zeichen des Namens des Weihnachtsmannes und stellen Sie sich den Weihnachtsmann vor.
    3. Schweigen Sie 40 s lang. Die ersten 20 s mit einem leeren Bild zu Kontrollzwecken und die nächsten 20 s mit IAPS-Bildern.
      HINWEIS: Kein Chanten.
  3. EEG-Aufzeichnungssystem
    1. Erfassen Sie EEG-Daten mit einem 128-Kanal-EEG-System, das aus einem Verstärker, einem Stoffauflauf, einer EEG-Kappe und zwei Desktop-Computern besteht (siehe Materialtabelle).
  4. Stimuli präsentierendes System
    1. Verwenden Sie eine Stimulus-Präsentationssoftware (siehe Materialtabelle), um neutrale und negative Bilder aus dem IAPS auf einem Desktop-Computer anzuzeigen.
  5. EKG-Aufzeichnungssystem
    1. Verwenden Sie ein physiologisches Datenerfassungssystem, um EKG-Daten aufzuzeichnen (siehe Materialtabelle).

2. Affektives Modulationsexperiment

HINWEIS: Das Experiment hatte zwei Faktoren mit einem 2 x 3 Design: Der erste Faktor war der Bildtyp: neutral und negativ (angst- und stressprovozierend). Der zweite Faktor war der Gesangstyp: "Amitabha Buddha" chanten, "Santa Claus" chanten und kein Chanten (stille Ansicht).

  1. Verwenden Sie ein Blockdesign, da es emotionsbezogene Komponenten effektiver hervorrufen kann15.
    HINWEIS: Es gab sechs Bedingungen, und die Sequenzen wurden randomisiert und zwischen den Teilnehmern ausgeglichen (Abbildung 1). Die sechs Bedingungen waren wie folgt: religiöse Gesänge beim Betrachten von Negativbildern (AmiNeg); religiöse Gesänge beim Betrachten neutraler Bilder (AmiNeu); kein Chanten beim Betrachten von Negativbildern (PasNeg); kein Singen beim Betrachten neutraler Bilder (PasNeu); nichtreligiöses Singen beim Betrachten von Negativbildern (SanNeg); und nichtreligiöses Singen beim Betrachten neutraler Bilder (SanNeu).

Figure 1
Abbildung 1: Das experimentelle Verfahren. Es gab sechs pseudozufällige Bedingungen, und jeder Teilnehmer erhielt eine pseudozunomisierte Sequenz. Jede Bedingung wurde sechsmal in zwei separaten Sitzungen wiederholt. Diese Zahl wurde von Reference3 übernommen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

  1. Zeigen Sie jedes Bild für ~ 1,8-2,2 s mit einem Interstimulusintervall (ISI) von 0,4-0,6 s.
    HINWEIS: In jeder Sitzung gab es 10 Bilder des gleichen Typs (neutral oder negativ).
  2. Planen Sie nach jeder Sitzung eine Ruhezeit von 20 s ein, um den möglichen Resteffekten des Chantens oder der Bildbetrachtung auf die nächste Sitzung entgegenzuwirken.
  3. Präsentieren Sie die Bilder auf einem CRT-Monitor in einem Abstand von 75 cm von den Augen der Teilnehmer, mit Sichtwinkeln von 15° (vertikal) und 21° (horizontal).
  4. Bitten Sie die Teilnehmer, die Bilder sorgfältig zu beobachten.
  5. Stellen Sie den Teilnehmern einen kurzen Übungslauf zur Verfügung, damit sie sich mit jeder Bedingung vertraut machen können. Verwenden Sie einen Videomonitor, um sicherzustellen, dass die Teilnehmer nicht einschlafen.
  6. Geben Sie den Teilnehmern eine 10-minütige Pause in der Mitte des 40-minütigen Experiments.

3. EEG- und EKG-Datenerhebung

HINWEIS: Bevor Sie zum Experiment kommen, bitten Sie jeden Teilnehmer, seine Haare und Kopfhaut gründlich zu waschen, ohne einen Conditioner oder etwas anderes zu verwenden, das die Impedanz des Systems erhöhen könnte. Erfassen Sie die EEG- und EKG-Daten gleichzeitig in zwei getrennten Systemen.

  1. Informieren Sie jeden Teilnehmer über die experimentellen Verfahren, dh dass effektive Bilder unter verschiedenen Chanting-Bedingungen betrachtet wurden.
  2. Stellen Sie die Abtastrate auf 1.000 Hz ein und halten Sie die Impedanz jeder Elektrode unter 30 kΩ, wann immer dies möglich ist oder den Anforderungen des Systems entspricht.
  3. Sammeln Sie physiologische Daten, einschließlich EKG-Daten, mit einem physiologischen Datenaufzeichnungssystem (siehe Materialtabelle).

4. EEG-Datenanalyse

  1. Verarbeiten und analysieren Sie die EEG-Daten mit EEGLAB (siehe Tabelle der Materialien), Supplementary File 1-2, einer Open-Source-Software16 nach den folgenden Schritten.
  2. Verwenden Sie die EEGLAB-Funktion "pop_resample", um die Daten von 1.000 Hz auf 250 Hz neu zu berechnen, um eine angemessene Datendateigröße beizubehalten. Klicken Sie auf Extras > Abtastrate ändern.
  3. Verwenden Sie die EEGLAB-Funktion "pop_eegfiltnew", um die Daten mit einem Finite Impulse Response (FIR) Filter mit 0,1-100 Hz Passband zu filtern. Klicken Sie auf Extras > Daten > Einfachen FIR-Filter filtern (neu, Standard).
  4. Filtern Sie die Daten erneut mit einem nichtlinearen IIR-Filter (Infinite Impulse Response) mit einem 47-53 Hz-Stoppband, um das Rauschen des Wechselstroms zu reduzieren. Klicken Sie auf Extras > Daten filtern > wählen Sie Notch filtern die Daten anstelle von Passband.
  5. Untersuchen Sie die Daten visuell, um starke Artefakte zu entfernen, die durch Augen- und Muskelbewegungen erzeugt wurden. Klicken Sie auf Plot > Kanaldaten (scrollen).
  6. Überprüfen Sie die Daten erneut visuell auf konsistentes Rauschen, das von einem Kanal erzeugt wird, und die fehlerhaften Kanäle wurden festgestellt.
  7. Rekonstruieren Sie die fehlerhaften Kanäle mit sphärischer Interpolation. Klicken Sie auf Extras > Elektroden interpolieren > Aus den Datenkanälen auswählen.
  8. Führen Sie eine unabhängige Komponentenanalyse (ICA) mit dem Open-Source-Algorithmus "runica"16 durch. Klicken Sie auf Tools > ICA ausführen.
  9. Entfernen Sie die unabhängigen Komponenten (Independent Components, ICs), die Augenbewegungen, Blinzeln, Muskelbewegungen und Linienrauschen entsprechen. Klicken Sie auf Extras > Daten mit ICA ablehnen > Komponenten nach Karte ablehnen.
  10. Rekonstruieren Sie die Daten mithilfe der verbleibenden ICs. Klicken Sie auf Extras > Komponenten entfernen.
  11. Filtern Sie die Daten mit einem 30 Hz Tiefpassfilter. Klicken Sie auf Extras > Daten > Einfachen FIR-Filter filtern (neu, Standard).
  12. Erhalten Sie ERP-Daten durch Extrahieren und Mittelwerten von zeitgebundenen Epochen für jede Bedingung mit einem Zeitfenster von -200 bis 0 ms als Baseline und 0 bis 800 ms als ERP. Klicken Sie auf Werkzeuge > Epochen extrahieren.
  13. Referenzieren Sie die ERP-Daten erneut mit dem Durchschnitt der linken und rechten Mastoidkanäle. Klicken Sie auf Extras > Referenzieren.
  14. Wiederholen Sie die obigen Schritte für die Datensätze aller Teilnehmer und vergleichen Sie die Unterschiede zwischen den Bedingungen mit dem t-Test oder der ANOVA mit wiederholten Messungen in einer statistischen Analysesoftware (siehe Materialtabelle).
  15. Definieren Sie Zeitfenster für N1 und LPP basierend auf etablierten Theorien8,17 und den aktuellen Daten3.
    HINWEIS: In dieser Arbeit wurde N1 als 100-150 ms definiert, während LPP als 300-600 ms ab Stimulusbeginn definiert wurde; LPP ist in der zentral-parietalen Region am prominentesten (Abbildung 2).
  16. Ermitteln Sie den Unterschied zwischen neutralem und negativem Bild an der N1-Komponente mit einem gepaarten t-Test unter drei Bedingungen (Abbildung 3).
  17. Ermitteln Sie den Unterschied zwischen neutralem und negativem Bild an der LPP-Komponente mithilfe eines gepaarten t-Tests unter drei Bedingungen (Abbildung 4).
  18. Führen Sie ROI-Analysen (Region of Interest) für N1- und LPP-Komponenten durch, indem Sie relevante Kanäle zur Darstellung einer Region mittelen.
    HINWEIS: Um den ROI auszuwählen, wurden die Epochen aller drei Bedingungen gemittelt, um diejenigen Kanäle zu berechnen, in denen die neutralen und negativen Bilder eine Differenz aufwiesen, die im spezifischen Zeitfenster signifikant war (z. B. für N1 oder LPP).
  19. Vergleichen Sie die Differenz bei N1 und LPP separat, indem Sie wiederholte Messungen ANOVA und Post-hoc-Statistiken in statistischer Analysesoftware verwenden.
    HINWEIS: Verwenden Sie die Post-hoc-Analyse (Bonferroni-Korrektur) und bestimmen Sie signifikante Unterschiede zwischen den beiden Bedingungen separat, wenn das Modell signifikant war. Die Signifikanzschwelle wurde auf p < 0,05 festgelegt.

5. ERP-Quellenanalyse

  1. Führen Sie die ERP-Quellenanalyse18 mit der Open-Source-Software SPM19 (siehe Materialtabelle) durch, indem Sie die folgenden Schritte ausführen.
  2. Verknüpfen Sie das Koordinatensystem des EEG-Kappensensors mit dem Koordinatensystem eines standardmäßigen strukturellen MRT-Bildes (Koordinaten des Montreal Neurological Institute (MNI)) durch landmarkenbasierte Co-Registrierung. Klicken Sie in SPM auf Batch > SPM > M/EEG > Source Reconstruction > Head Modellspezifikation.
  3. Führen Sie eine Vorwärtsberechnung durch, um die Wirkung jedes Dipols auf das kortikale Netz zu berechnen, das den EEG-Sensoren auferlegt wird. Klicken Sie im selben Batch-Editor auf SPM > M/EEG > Quellrekonstruktion > Quellinversion.
    HINWEIS: Diese Ergebnisse wurden in einer G-Matrix (n x m) platziert, wobei n die Anzahl der Sensoren (EEG-Raumdimension) und m die Anzahl der Netzeckpunkte (Quellraumdimension) ist. Das Quellmodell war X = GS, wobei X eine n x k-Matrix ist, die die ERP-Daten jeder Bedingung angibt, k die Anzahl der Zeitpunkte und S eine m x k-Matrix ist, die die ERP-Quelle angibt.
  4. Verwenden Sie im dritten Schritt (unter den vielen verfügbaren Algorithmen) den gierigen suchbasierten Algorithmus für mehrere Sparse-Priors (da S unbekannt ist), um die inverse Rekonstruktion durchzuführen, da er zuverlässiger ist als andere Methoden20. Wählen Sie MSP (GS) als Inversionstyp im Fenster Quellinversion aus.
  5. Bestimmen Sie die Differenz zwischen den Bedingungen mithilfe der allgemeinen linearen Modellierung in SPM. Legen Sie das Signifikanzniveau auf p < 0,05 fest. Klicken Sie unter Batch Editor auf SPM > Stats > Factorial Design Specification.

6. EKG-Daten und Analyse der Verhaltensbewertung

  1. Verwenden Sie physiologische und Datenverarbeitungssoftware, um die EKG-Daten zu verarbeiten und zu analysieren (siehe Materialtabelle). Berechnen Sie die Mittelwerte für jede Bedingung. Klicken Sie in EEGLAB auf Tools > FMRIB Tools > QRS-Ereignisse erkennen21.
    HINWEIS: Ähnlich wie bei der ERP-Amplitudenanalyse wurde eine statistische Software verwendet, um die Daten mit wiederholten Messungen ANOVA weiter zu analysieren. Eine Post-hoc-Analyse wurde durchgeführt, um die signifikanten Unterschiede zwischen den beiden Bedingungen separat zu bestimmen, wenn das Modell signifikant war. Das Signifikanzniveau wurde auf p < 0,05 gesetzt.
  2. Bitten Sie die Teilnehmer, ihren Glauben an die Wirksamkeit des Chantens des Namens des Subjekts (Amitabha Buddha, Weihnachtsmann usw.) auf einer Skala von 1-9 zu bewerten, wobei 1 als am schwächsten und 9 als der stärkste gilt.

Representative Results

Verhaltensergebnisse
Die Ergebnisse für den Glauben der Teilnehmer an das Chanten ergaben eine durchschnittliche Punktzahl von 8,16 ± 0,96 für "Amitabha Buddha", 3,26 ± 2,56 für "Santa Claus" und 1,95 ± 2,09 für die Blanko-Kontrollbedingung (Ergänzende Tabelle 1).

ERP-Ergebnisse
Der repräsentative Kanal von Pz (Parietallappen) zeigte, dass die Chanting-Bedingungen unterschiedliche Auswirkungen auf die frühe (N1) und späte (LPP) Verarbeitung von neutralen und negativen Bildern hatten. Es zeigte das Zeitfenster von N1 bzw. LPP (Abbildung 2).

Frühes Wahrnehmungsstadium
Die ERP-Ergebnisse zeigten ein erhöhtes N1 beim Betrachten der Negativbilder unter drei Chanting-Bedingungen (Abbildung 3). Es zeigte sich, dass negative Bilder stärkere zentrale Gehirnaktivitäten induzierten als neutrale Bilder, und die Zunahmen sind unter drei Bedingungen vergleichbar.

Spätes emotionales/kognitives Stadium
Die ERP zeigte einen erhöhten LPP in den nichtreligiösen Gesangs- und Nicht-Chanting-Bedingungen. Das durch Negativbilder induzierte LPP ist jedoch kaum sichtbar, wenn der Teilnehmer den Namen Amitabha Buddhas singt (Abbildung 4).

Roi-Analyse (Region of Interest)
Die drei Bedingungen wurden kombiniert, um die Regionen abzuschätzen, die im Allgemeinen an N1- und LPP-Komponenten aktiviert wurden. Wiederholte Messungen ANOVA wurde mit statistischer Software durchgeführt, um die Differenz in den N1- und LPP-Komponenten zwischen den Chanting-Bedingungen zu berechnen (Abbildung 5).

Die linken drei Spalten zeigen den Unterschied in der N1-Komponente für die drei Gesangsbedingungen: die stille Betrachtungsbedingung, die nichtreligiöse Gesangsbedingung und die religiöse Chanting-Bedingung. Die Unterschiede in der N1-Komponente waren unter den drei Bedingungen ähnlich. Die rechten drei Spalten zeigen den Unterschied in der LPP-Komponente für die drei Chanting-Bedingungen. Dies zeigt, dass der Unterschied in der LPP-Komponente in der religiösen Gesangsbedingung viel geringer ist als in der nichtreligiösen Gesangsbedingung und der stillen Betrachtungsbedingung.

Quellenanalyse
Die Quellenanalyse wurde angewendet, um die potenzielle Gehirnkartierung basierend auf den LPP-Ergebnissen zu extrahieren (Abbildung 6). Die Ergebnisse zeigen, dass negative Bilder im Vergleich zu neutralen Bildern eine stärkere parietale Aktivierung in der nichtreligiösen Gesangsbedingung und keiner Chanting-Bedingung induzieren. Im Gegensatz dazu verschwindet diese negative Bild-induzierte Aktivierung weitgehend in der religiösen Gesangsbedingung.

Physiologische Ergebnisse: Herzfrequenz
Es gab eine signifikante Veränderung der Herzfrequenz (HR) zwischen den negativen und neutralen Bildern im nichtreligiösen Gesangszustand. Ein ähnlicher Trend wurde in der No-Chanting-Bedingung gefunden. Ein solcher HR-Unterschied wurde jedoch in der religiösen Gesangsbedingung nicht gefunden (Abbildung 7).

Figure 2
Abbildung 2: Ein repräsentativer Kanal (Pz) zeigte unterschiedliche ERPs in sechs Chanting-Bedingungen. Die sechs Bedingungen sind (1) religiöses Singen beim Betrachten neutraler Bilder (AmiNeu); (2) religiöse Gesänge beim Betrachten von Negativbildern (AmiNeg); (3) nichtreligiöses Singen beim Betrachten neutraler Bilder (SanNeu); (4) nichtreligiöses Singen beim Betrachten von Negativbildern (SanNeg); (5) kein Singen beim Betrachten neutraler Bilder (PasNeu); und (6) kein Singen beim Betrachten von Negativbildern (PasNeg). Der Kanal Pz befindet sich im mittelparietalen Bereich der Kopfhaut. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 3
Abbildung 3: Die ERP-Ergebnisse zur Demonstration der N1-Komponente in den drei Chanting-Bedingungen. Zweidimensionale Karten der N1-Komponente für die drei Bedingungen für jeden Bildtyp. In der letzten Spalte werden Kanäle mit signifikanten Unterschieden (p < 0,05) mit Punkten dargestellt; Punkte, die eine dunklere Farbe haben, zeigen eine größere Bedeutung an (d. h. kleinere p-Werte). Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 4
Abbildung 4: Die ERP-Ergebnisse zur Demonstration der LPP-Komponente in den drei Chanting-Bedingungen. Zweidimensionale Karten der LPP-Komponente (Late Positive Potential) für die drei Bedingungen für jeden Bildtyp. In der letzten Spalte werden Kanäle mit signifikanten Unterschieden (p < 0,05) mit Punkten dargestellt; Punkte, die eine dunklere Farbe haben, zeigen eine größere Bedeutung an (d. h. kleinere p-Werte). Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 5
Abbildung 5: ROI-Analyse (Region of Interest). Die Region of Interest (ROI) Analyse über den Unterschied zwischen negativen vs. neutralen bildinduzierten Gehirnreaktionen für die frühe Komponente, N1, und die späte Komponente, das späte positive Potenzial (LPP). Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 6
Abbildung 6: Quellenanalyse der LPP-Komponente (Late Positive Potential) unter den drei Bedingungen. Hervorgehobene Bereiche weisen auf eine höhere Gehirnaktivität unter negativen im Vergleich zu neutralen Bedingungen hin. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 7
Abbildung 7: Die Herzschlagintervalle unter den drei Chanting-Bedingungen. Die Inter-Beat-Intervalle (RRs) des Elektrokardiogramms unter jeder Bildtyp/Chanting-Kombination und den entsprechenden p-Werten . Ami: Amitabha Buddha Chanting Condition, San: Santa Claus Chanting Condition, Pas: passive Betrachtungsbedingung, Neu: neutrales Bild, Neg: Negativbild. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Ergänzende Tabelle 1: Bewertung des Glaubens an die Wirksamkeit des chantenden Subjekts (Amitabha Buddha, Weihnachtsmann). Es verwendet eine Skala von 1-9, wobei 1 den geringsten Glauben und 9 den stärksten Glauben angibt. Bitte klicken Sie hier, um diese Tabelle herunterzuladen.

Ergänzungsakte 1: Code für die EEG-Datenchargenvorverarbeitung. Es entfernt fehlerhafte Kanäle, sampelt die Daten auf 250 Hz neu ab und filtert dann die Daten. Bitte klicken Sie hier, um diese Datei herunterzuladen.

Ergänzende Datei 2: Code für die ERP-Datenreparatur. Es repariert schlechte Epochen mit lauten Stacheln. Bitte klicken Sie hier, um diese Datei herunterzuladen.

Discussion

Die Einzigartigkeit dieser Studie ist die Anwendung einer neurowissenschaftlichen Methode, um die neuronalen Mechanismen zu untersuchen, die einer weit verbreiteten religiösen Praxis, d.h. dem sich wiederholenden religiösen Gesang, zugrunde liegen. Aufgrund ihrer herausragenden Wirkung könnte diese Methode neue Interventionen für Therapeuten oder Kliniker ermöglichen, um Klienten zu behandeln, die mit emotionalen Problemen zu tun haben und unter Angstzuständen und Stress leiden. Zusammen mit früheren Studien sollte eine breitere Emotionsregulationsforschung in zukünftigen Studien berücksichtigt werden7,8,9,22.

Es gibt nur wenige ERP-Studien zum Chanten, da es schwierig ist, Experimente zu konstruieren, die Chanting und andere kognitive Ereignisse kombinieren. Diese Studie zeigt ein praktikables Protokoll zur Untersuchung der affektiven Wirkung des Chantens / Betens, das in der realen Welt sehr beliebt ist. Frühere Studien zur funktionellen MRT (fMRT) ergaben, dass das Beten Bereiche der sozialen Kognition rekrutiert23. Eine fMRT-Studie im Ruhezustand ergab, dass das Chanten von "OM" die Ausgänge der vorderen cingulären, insula und orbitofrontalen Cortices reduzierte24. Eine weitere EEG-Studie ergab, dass die "OM"-Meditation die Deltawellen erhöhte und die Erfahrung von Entspannung und Tiefschlaf induzierte25. Diese Methoden konnten jedoch die spezifischen ereignisbezogenen Veränderungen nach religiösem Gesang nicht genau untersuchen.

Forscher sollten die Störfaktoren der Sprachverarbeitung und Vertrautheit kontrollieren, um die potenziellen Auswirkungen von sich wiederholendem religiösem Gesang erfolgreich zu untersuchen. Da die Teilnehmer ausgiebig und täglich den Namen "Amitabha Buddha" (chinesische Schriftzeichen: Equation 1; Kantonesische Aussprache: o1-nei4-to4-fat6), verwendeten wir den Namen "Santa Claus" (chinesische Schriftzeichen: ; Equation 2 Kantonesische Aussprache: sing3-daan3-lou5-jan4) als Kontrollbedingung, da der Einheimische mit dem Weihnachtsmann vertraut ist. Im Chinesischen enthalten beide Namen vier Zeichen, was die Sprachähnlichkeit steuert. In Bezug auf die Vertrautheit ist der Weihnachtsmann auch in Hongkong sehr beliebt, da es sich um eine teilweise verwestlichte Stadt handelt. Darüber hinaus ist der Weihnachtsmann auch in Hongkong, wo es offizielle Weihnachtsfeiertage gibt, eine etwas positive Figur. Dennoch ist diese Kontrolle der Vertrautheit partiell, da es schwierig ist, das Verständnis von Amitabha Buddhas Namen für die Praktizierenden vollständig zu erreichen.

Ein kritischer Schritt in der aktuellen Studie war die Aufbereitung der angst- oder stressauslösenden Bilder. Da religiöses Chanten bei bedrohlichen Ereignissen besser funktionieren kann, war die Auswahl der richtigen Reize aus dem IAPS-Bildpool26 entscheidend. Es wird empfohlen, potenzielle Teilnehmer zu interviewen und geeignete Bilder auszuwählen, um zu viel Angst oder Ekel zu vermeiden. Stark negative Bilder könnten die Teilnehmer daran hindern, ihre Aufmerksamkeit absichtlich abzuwenden; gleichzeitig sollen die angst- und stressauslösenden Reize es den Teilnehmern ermöglichen, eine ausreichende Bedrohung zu erfahren. Ein weiteres kritisches Thema ist das Blockdesign der Studie. Das EEG/ERP-Signal ist empfindlich und dynamisch genug, um jedes Ereignis zu verfolgen. Es wäre jedoch angemessener, ein Blockdesign mit einer Betrachtungsdauer von 20-30 s zu implementieren, da sich das Muster der Herzfunktion oder -emotion möglicherweise nicht in der Größenordnung von Sekunden ändert27. Auf der anderen Seite könnte ein 60-s-Block zu lang sein, und die neuronale Reaktion könnte sich in den ERP-Studien gewöhnen.

Die EEG-Datenverarbeitungsphase muss in jedem Schritt eine Sicherung erstellen, da jeder Schritt die Daten ändert und die während dieser Schritte vorgenommenen Änderungen aufzeichnet. Dies kann verwendet werden, um Änderungen zu verfolgen und das Auffinden von Fehlern während der Stapelverarbeitung zu erleichtern. Die Verbesserung der Datenqualität ist ebenfalls unerlässlich, daher ist Erfahrung in der Bereinigung von Rohdaten und der Identifizierung fehlerhafter ICs erforderlich. Bei der statistischen Analyse wurden Vergleiche zu großen Durchschnittswerten angestellt und ANOVA angewendet. Wir weisen darauf hin, dass diese Statistik mit dem Fixed-Effect-Modell anfällig für zufällige Effekte ist28. Mixed-Effects-Modelle können angepasst werden, um externe Faktoren zu kontrollieren29, und die Annahme der Linearität kann potenziell Rückschlüsse aus den ERP-Daten beeinflussen30.

Mehrere Einschränkungen sind erwähnenswert. Eine Einschränkung besteht darin, dass die aktuelle Studie nur eine Gruppe von Teilnehmern einschrieb, die den Pureland-Buddhismus praktizierten. Die Aufnahme einer Kontrollgruppe ohne Erfahrung im religiösen Chanten zum Vergleich könnte helfen festzustellen, ob die Wirkung des religiösen Chantens durch Glauben oder Vertrautheit vermittelt wird. Normalerweise wäre eine randomisierte kontrollierte Studie überzeugender, um den Einfluss der Emotionsmodulation auf religiöse Gesänge zu untersuchen31. Es ist jedoch schwer zu garantieren, dass ein Teilnehmer wiederholt "Amitabha Buddha" mit voller Bereitschaft chanten würde. Darüber hinaus wird das LPP durch andere Faktoren beeinflusst, wie z. B. emotionalen Klang oder positives Priming32,33. Daher sind besser kontrollierte Experimente erforderlich, um den grundlegenden Neuromechanismus, der der Wirkung des religiösen Gesangs zugrunde liegt, klarer zu beschreiben.

Zusammenfassend haben frühere Studien gezeigt, dass das menschliche Gehirn der neuronalen Plastizität und der schnellen Veränderung von Zuständen subjektiv ist34,35; Mit ausreichender Übung und Absicht kann sich das Gehirn umformen und anders auf normalerweise ängstliche Reize reagieren. Diese Studie gibt Einblicke in die Entwicklung effektiver Bewältigungsstrategien für den Umgang mit emotionaler Belastung in zeitgenössischen Kontexten. Nach diesem Protokoll sollten Forscher die Wirkung von religiösem Gesang oder anderen traditionellen Praktiken untersuchen, um praktikable Wege zu finden, um Menschen zu helfen, ihre emotionalen Leiden zu lindern.

Disclosures

Die Autoren erklären, dass sie keine konkurrierenden finanziellen Interessen haben.

Acknowledgments

Die Studie wurde durch das kleine Fondsprojekt von HKU und NSFC.61841704 unterstützt.

Materials

Name Company Catalog Number Comments
E-Prime 2.0 Psychology Software Tools stimulus presentation, behavior data collection
EEGLAB Swartz Center for Computational Neuroscience EEG analysis software
HydroCel GSN 128 channels Electrical Geodesics, Inc. (EGI) EEG cap
LabChart ADInstruments physiological data (including ECG) acquisition software
Matlab R2011a MathWorks EEGLAB and SPM are based on Matlab; statistical analysis tool for EEG and physiological data
Netstation Electrical Geodesics, Inc. (EGI) EEG acquisition software
PowerLab 8/35 ADInstruments PL3508 physiological data (including ECG) acquisition hardware
SPM Wellcome Trust Centre for Neuroimaging EEG source analysis software
FMRIB University of Oxford Centre for Functional MRI of the Brain (FMRIB) Plug-in for EEGLAB to process ECG data
SPSS IBM statistical analysis tool for behavior and EEG ROI data
iMac 27" Apple running the Netstation software
Windows PC HP running the E-Prime 2.0 software
Windows PC Dell running the LabChart software

DOWNLOAD MATERIALS LIST

References

  1. Kennedy, H., Montreuil, T. C. The late positive potential as a reliable neural marker of cognitive reappraisal in children and youth: A brief review of the research literature. Frontiers in Psychology. 11, 608522 (2020).
  2. Yu, Q., Kitayama, S. Does facial action modulate neural responses of emotion? An examination with the late positive potential (LPP). Emotion. 21 (2), 442-446 (2021).
  3. Gao, J. L., et al. Repetitive religious chanting modulates the late-stage brain response to fear and stress-provoking pictures. Frontiers in Psychology. 7, 2055 (2017).
  4. Barkus, E. Effects of working memory training on emotion regulation: Transdiagnostic review. PsyCh Journal. 9 (2), 258-279 (2020).
  5. Denny, B. T. Getting better over time: A framework for examining the impact of emotion regulation training. Emotion. 20 (1), 110-114 (2020).
  6. Champe, J., Okech, J. E. A., Rubel, D. J. Emotion regulation: Processes, strategies, and applications to group work training and supervision. Journal for Specialists in Group Work. 38 (4), 349-368 (2013).
  7. Sobolewski, A., Holt, E., Kublik, E., Wrobel, A. Impact of meditation on emotional processing-A visual ERP study. Neuroscience Research. 71 (1), 44-48 (2011).
  8. Katyal, S., Hajcak, G., Flora, T., Bartlett, A., Goldin, P. Event-related potential and behavioural differences in affective self-referential processing in long-term meditators versus controls. Cognitive Affective & Behavioral Neuroscience. 20 (2), 326-339 (2020).
  9. Uusberg, H., Uusberg, A., Talpsep, T., Paaver, M. Mechanisms of mindfulness: The dynamics of affective adaptation during open monitoring. Biological Psychology. 118, 94-106 (2016).
  10. Bradley, M. M., Lang, P. J. Handbook of emotion elicitation and assessment. Series in affective science. Coan, J. A., Allen, J. B. 483, Oxford University Press. 483-488 (2007).
  11. Gao, J. L., et al. Repetitive religious chanting invokes positive emotional schema to counterbalance fear: A multi-modal functional and structural MRI study. Frontiers in Behavioral Neuroscience. 14, 548856 (2020).
  12. Somaratne, G. A. The Jhana-cittas: The methods of swapping existential planes via samatha. Journal Of The Postgraduate Institute Of Pali And Buddhist Studies. 2, 1-21 (2017).
  13. Bhikkhu, T. Sallatha Sutta: The arrow (SN 36.6), Translated from the pali. Access to Insight Legacy Edition. , (2013).
  14. Halkias, G. Luminous bliss : a religious history of Pure Land literature in Tibet : with an annotated English translation and critical analysis of the Orgyan-gling gold manuscript of the short Sukhāvatīvȳuha-sūtra. , University of Hawaiʻi Press. (2013).
  15. Stewart, J. L., et al. Attentional bias to negative emotion as a function of approach and withdrawal anger styles: An ERP investigation. International Journal of Psychophysiology. 76 (1), 9-18 (2010).
  16. Delorme, A., Makeig, S. EEGLAB: an open source toolbox for analysis of single-trial EEG dynamics including independent component analysis. Journal of Neuroscience Methods. 134 (1), 9-21 (2004).
  17. Ito, T. A., Larsen, J. T., Smith, N. K., Cacioppo, J. T. Negative information weighs more heavily on the brain: The negativity bias in evaluative categorizations. Journal of Personality and Social Psychology. 75 (4), 887-900 (1998).
  18. Grech, R., et al. Review on solving the inverse problem in EEG source analysis. Journal of NeuroEngineering and Rehabilitation. 5, 25 (2008).
  19. Penny, W. D., Friston, K. J., Ashburner, J. T., Kiebel, S. J., Nichols, T. E. Statistical Parametric Mapping: The Analysis of Functional BrainIimages: The Analysis of Functional Brain Images. , Academic Press. (2011).
  20. Friston, K., et al. Multiple sparse priors for the M/EEG inverse problem. NeuroImage. 39 (3), 1104-1120 (2008).
  21. Niazy, R. K., Beckmann, C. F., Iannetti, G. D., Brady, J. M., Smith, S. M. Removal of FMRI environment artifacts from EEG data using optimal basis sets. Neuroimage. 28 (3), 720-737 (2005).
  22. Nakamura, H., Tawatsuji, Y., Fang, S. Y., Matsui, T. Explanation of emotion regulation mechanism of mindfulness using a brain function model. Neural Networks. 138, 198-214 (2021).
  23. Schjoedt, U., Stdkilde-Jorgensen, H., Geertz, A. W., Roepstorff, A. Highly religious participants recruit areas of social cognition in personal prayer. Social Cognitive and Affective Neuroscience. 4 (2), 199-207 (2009).
  24. Rao, N. P., et al. Directional brain networks underlying OM chanting. Asian Journal of Psychiatry. 37, 20-25 (2018).
  25. Harne, B. P., Bobade, Y., Dhekekar, R. S., Hiwale, A. SVM classification of EEG signal to analyze the effect of OM Mantra meditation on the brain. 2019 Ieee 16th India Council International Conference (Ieee Indicon 2019). , (2019).
  26. Coan, J. A., Allen, J. J. B. Handbook of Emotion Elicitation and Assessment. , Oxford University Press. (2007).
  27. Meseguer, V., et al. Mapping the apetitive and aversive systems with emotional pictures using a Block-design fMRI procedure. Psicothema. 19 (3), 483-488 (2007).
  28. Luck, S. J., Gaspelin, N. How to get statistically significant effects in any ERP experiment (and why you shouldn't). Psychophysiology. 54 (1), 146-157 (2017).
  29. Meteyard, L., Davies, R. A. I. Best practice guidance for linear mixed-effects models in psychological science. Journal of Memory and Language. 112, 104092 (2020).
  30. Tremblay, A., Newman, A. J. Modeling nonlinear relationships in ERP data using mixed-effects regression with R examples. Psychophysiology. 52 (1), 124-139 (2015).
  31. Wu, B. W. Y., Gao, J. L., Leung, H. K., Sik, H. H. A randomized controlled trial of Awareness Training Program (ATP), a group-based mahayana buddhist intervention. Mindfulness. 10 (7), 1280-1293 (2019).
  32. Brown, D. R., Cavanagh, J. F. The sound and the fury: Late positive potential is sensitive to sound affect. Psychophysiology. 54 (12), 1812-1825 (2017).
  33. Hill, L. D., Starratt, V. G., Fernandez, M., Tartar, J. L. Positive affective priming decreases the middle late positive potential response to negative images. Brain and Behavior. 9 (1), 01198 (2019).
  34. Belzung, C., Wigmore, P. Current Topics in Behavioral Neurosciences,1 online resource. , Springer Berlin Heidelberg. Berlin Heidelberg. (2013).
  35. Denes, G. Neural Plasticity Across The Lifespan: How The Brain Can Change. , CRC Press, an imprint of the Taylor & Francis Group. (2016).

Tags

Neuroscience Ausgabe 177

Erratum

Formal Correction: Erratum: Modulation of the Neurophysiological Response to Fearful and Stressful Stimuli Through Repetitive Religious Chanting
Posted by JoVE Editors on 03/25/2022. Citeable Link.

An erratum was issued for: Modulation of the Neurophysiological Response to Fearful and Stressful Stimuli Through Repetitive Religious Chanting. The Authors section was updated.

The authors section was updated from:

Hin Hung Sik1, Georgios T. Halkias1, Chunqi Chang2, Junling Gao1, Hang Kin Leung1, Bonnie W. Y. Wu1
1Centre of Buddhist Studies, The University of Hong Kong,
2School of Biomedical Engineering, Shenzhen University

To:

Hin Hung Sik1, Georgios T. Halkias1, Chunqi Chang2, Junling Gao1, Hang Kin Leung1, Bonnie Wai Yan Wu1
1Buddhism and Science Research Lab, Centre of Buddhist Studies, The University of Hong Kong,
2School of Biomedical Engineering, Shenzhen University

Modulation der neurophysiologischen Reaktion auf ängstliche und belastende Reize durch repetitives religiöses Chanten
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Sik, H. H., Halkias, G. T., Chang,More

Sik, H. H., Halkias, G. T., Chang, C., Gao, J., Leung, H. K., Wu, B. W. Y. Modulation of the Neurophysiological Response to Fearful and Stressful Stimuli Through Repetitive Religious Chanting. J. Vis. Exp. (177), e62960, doi:10.3791/62960 (2021).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter