Erkennung von Vor-Stimulus-Source-Level-Effekten auf die Objektwahrnehmung mit Magnetoenzephalographie

Neuroscience
 

Summary

In diesem Artikel wird beschrieben, wie Sie ein Experiment einrichten, das es ermöglicht, Einflüsse auf die Objektwahrnehmung mithilfe der Magnetoenzephalographie (MEG) auf Quellenebene zu erkennen. Es umfasst Stimulusmaterial, experimentelles Design, MEG-Aufzeichnung und Datenanalyse.

Cite this Article

Copy Citation | Download Citations | Reprints and Permissions

Rassi, E., Fuscà, M., Weisz, N., Demarchi, G. Detecting Pre-Stimulus Source-Level Effects on Object Perception with Magnetoencephalography. J. Vis. Exp. (149), e60120, doi:10.3791/60120 (2019).

Please note that all translations are automatically generated.

Click here for the english version. For other languages click here.

Abstract

Pre-Stimulus oszillatole Gehirnaktivität beeinflusst kommende Wahrnehmung. Die Merkmale dieser vorstimulus-Aktivität können vorhersagen, ob ein naheliegender Stimulus wahrgenommen wird oder nicht, aber können sie auch vorhersagen, welcher von zwei konkurrierenden Reizen mit unterschiedlichen Wahrnehmungsinhalten wahrgenommen wird? Mehrdeutige visuelle Reize, die auf eine von zwei möglichen Weisen gleichzeitig gesehen werden können, sind ideal geeignet, um dieser Frage zu forschen. Magnetoenzephalographie (MEG) ist eine neurophysiologische Messtechnik, die magnetische Signale aufzeichnet, die als Ergebnis der Gehirnaktivität emittiert werden. Die Millisekunden-Zeitauflösung von MEG ermöglicht eine Charakterisierung oszillatorischer Hirnzustände ab nur 1 Sekunde aufgezeichneter Daten. Die Präsentation eines leeren Bildschirms etwa 1 Sekunde vor dem mehrdeutigen Stimulus-Beginn bietet daher ein Zeitfenster, in dem man untersuchen kann, ob die oszillierende Aktivität vor dem Stimulus den Inhalt der bevorstehenden Wahrnehmung verzerrt, wie die Teilnehmer Berichte. Die räumliche Auflösung von MEG ist nicht ausgezeichnet, aber ausreichend, um Quellen der Gehirnaktivität auf der Zentimeterskala zu lokalisieren. Die Quellenrekonstruktion der MEG-Aktivität ermöglicht dann das Testen von Hypothesen über die oszillatore Aktivität bestimmter Interessengebiete sowie die zeit- und frequenzaufgelöste Konnektivität zwischen Interessengebieten. Das beschriebene Protokoll ermöglicht ein besseres Verständnis des Einflusses spontaner, fortlaufender Hirnaktivität auf die visuelle Wahrnehmung.

Introduction

Hirnzustände vor der Reizdarstellung beeinflussen die Art und Weise, wie Reize wahrgenommen werden, sowie die neuronalen Reaktionen, die mit der Wahrnehmung1,2,3,4verbunden sind. Wenn z. B. ein Stimulus mit einer Intensität nahe der Wahrnehmungsschwelle (nahe der Schwelle) dargestellt wird, können neuronale Oszillationskraft, Phase und Konnektivität vor dem Stimulus beeinflussen, ob der bevorstehende Stimulus wahrgenommen wird oder nicht5 ,6,7,8,9,10. Diese Prästimulus-Signale könnten auch andere Aspekte der Wahrnehmung beeinflussen, wie z. B. Wahrnehmungsobjektinhalte.

Menschen mit einem mehrdeutigen Bild zu präsentieren, das auf zwei Arten interpretiert werden kann, ist eine ideale Möglichkeit, die Objektwahrnehmung zu untersuchen11. Dies liegt daran, dass der subjektive Inhalt der Wahrnehmung eines von zwei Objekten sein kann, während der tatsächliche Reiz unverändert bleibt. Man kann daher die Unterschiede in aufgezeichneten Gehirnsignalen zwischen Studien bewerten, in denen Menschen berichteten, dass sie eine mögliche Interpretation des Stimulus wahrnehmen. Angesichts der Berichte kann man auch untersuchen, ob es irgendwelche Unterschiede in den Hirnzuständen vor dem Beginn des Stimulus gab.

Magnetoenzephalographie (MEG) ist eine funktionelle Neuroimaging-Technik, die Magnetfelder aufzeichnet, die durch elektrische Ströme im Gehirn erzeugt werden. Während sich die Reaktionen auf blutsauerstoffabhängige (BOLD)-Antworten in einer Zeitskala von Sekunden auflösen, bietet MEG eine Millisekundenauflösung und ermöglicht daher die Untersuchung von Gehirnmechanismen, die bei sehr schnellen Zeitskalen auftreten. Ein damit verbundener Vorteil von MEG ist, dass es die Charakterisierung von Gehirnzuständen aus kurzen Perioden aufgezeichneter Daten ermöglicht, was bedeutet, dass experimentelle Studien verkürzt werden können, so dass viele Studien in eine experimentelle Sitzung passen. Darüber hinaus ermöglicht MEG Frequenz-Domain-Analysen, die oszillatore Aktivität aufdecken können.

Zusätzlich zu seiner hohen zeitlichen Auflösung bietet MEG eine gute räumliche Auflösung. Mit den Quellrekonstruktionstechniken12kann man Daten auf Sensorebene in den Quellbereich projizieren. Dies ermöglicht dann das Testen von Hypothesen über die Aktivität bestimmter Interessengebiete. Während die Signale im Sensorraum stark korreliert sind und daher die Konnektivität zwischen Sensoren nicht genau beurteilt werden kann, ermöglicht die Quellrekonstruktion die Bewertung der Konnektivität zwischen den interessennahen Regionen, da sie die Korrelationen zwischen Quellsignalen13. Diese Konnektivitätsschätzungen können sowohl in den Zeit- als auch in der Häufigkeitsdomäne aufgelöst werden.

Angesichts dieser Vorteile ist MEG ideal geeignet, um Prästimulus-Effekte auf die Objektwahrnehmung in bestimmten Interessenbereichen zu untersuchen. Im vorliegenden Bericht werden wir zeigen, wie ein solches Experiment und die MEG-Akquisitionseinrichtung gestaltet werden können, sowie wie die Quellrekonstruktion angewendet und oszillatore Aktivität und Konnektivität bewertet werden können.

Protocol

Das beschriebene Protokoll folgt den Richtlinien der Ethikkommission für Humanforschung der Universität Salzburg und entspricht der Erklärung von Helsinki.

1. Vorbereiten von Stimulusmaterial

  1. Laden Sie ein Bild des Rubin Gesichts/Vase Illusion14. Dies wird der Hälfte der Teilnehmer gezeigt.
  2. Verwenden Sie den Befehl Matlab, um das ursprüngliche schwarz-weiße binäre Rubin-Bild umzukehren, um ein zweites Rubin-Gesicht/Vase-Negativbild mit den Schwarz-Weiß-Farben zu erstellen, die in Bezug auf das Originalbild gekippt wurden (weißer Hintergrund statt schwarzer Hintergrund). Dies wird der anderen Hälfte der Teilnehmer gezeigt.
  3. Erstellen Sie eine Maske, indem Sie nach dem Zufallsprinzip Pixelblöcke des Rubin-Bildes verschlüsseln. Teilen Sie das Bild in quadratische Blöcke, die klein genug sind, um offensichtliche Kontur-Features zu verbergen, z. B. zwischen 2 % und 5 % der Größe des Originalbildes (5 x 5 Pixel aus einem Bild von 250 x 250), und mischen Sie sie dann nach dem Zufallsprinzip, um die Maske zu erstellen.
  4. Erstellen Sie ein schwarzes Fixierungskreuz auf einem weißen Hintergrund, sodass das Fixierungskreuz kleiner als das Rubin-Bild ist (weniger als 5° des visuellen Winkels).

2. MEG- und Stimulationsgeräte einrichten

  1. Verbinden Sie den Stimulus-Präsentationscomputer mit dem Projektor. Schließen Sie den DLP LED-Projektor-Controller über eine USB-Optoisolierte Erweiterung (für Daten) und ein DVI-Kabel (für Reize) an.
  2. Schließen Sie den MEG-Erfassungscomputer an den Stimulus-Präsentationscomputer an, damit er Trigger senden und empfangen kann. Schließen Sie das digitale Eingangs-/Ausgangssystem (DIO) (Tasten und Trigger, 2x Standard-D24-Anschlüsse) des integrierten Stimulus-Präsentationssystems an den MEG-Anschluss an der optoisolierten BNC-Breakout-Box an.
  3. Zeichnen Sie 1 Minute leerer Raum MEG-Daten bei 1 kHz auf.
  4. Überwachen Sie die Signale der 102 Magnetometer und 204 orthogonal platzierten planaren Gradiometer an 102 verschiedenen Positionen, indem Sie alle Signale in Echtzeit auf dem Erfassungscomputer visualisieren.

3. Teilnehmer auf MEG-Experiment vorbereiten

HINWEIS: Details zur MEG-Datenerfassung wurden zuvor beschrieben15.

  1. Stellen Sie sicher, dass der Teilnehmer die einwilligungsgemäße Einwilligung in Kenntnis der Sachlage versteht und das Formular unterzeichnen lässt, das auch eine Einwilligungserklärung zur Verarbeitung personenbezogener Daten enthält.
  2. Stellen Sie dem Teilnehmer nichtmagnetische Kleidung zur Verfügung und stellen Sie sicher, dass sie keine metallischen Gegenstände in oder auf ihrem Körper haben. Bitten Sie die Teilnehmer, einen weiteren anonymen Fragebogen auszufüllen, um dies zu gewährleisten, und dass der Teilnehmer keine anderen Ausschlusskriterien wie neurologische Störungen hat, und andere personenbezogene Daten wie Handlichkeit und Ruhegrad zu dokumentieren.
  3. Setzen Sie den Teilnehmer auf einen nicht-ferromagnetischen (Holz-)Stuhl. Befestigen Sie 5 Kopfpositionsanzeige (HPI) Spulen am Kopf mit Klebeputz, zwei über einem Auge, einem über dem anderen Auge und einem hinter jedem Ohr.
  4. Stellen Sie den Tracker-Sensor des Digitalisierungssystems fest auf den Kopf des Teilnehmers und fixieren Sie ihn an Brillen für maximale Stabilität.
    HINWEIS: Es wurde ein 3D-Digitalisierer verwendet (Materialtabelle).
  5. Digitalisieren Sie die anatomischen Landmarken, die linken und rechten vorauricularen Punkte und die Nasion, und stellen Sie sicher, dass die linken und rechten präauricularen Punkte symmetrisch sind. Diese Treuhänder definieren den 3D-Koordinatenrahmen.
  6. Digitalisieren Sie die 5 HPI-Spulenpositionen mit einem 3D-Digitalisiererstift.
  7. Digitalisieren Sie bis zu 300 Punkte entlang der Kopfhaut und maximieren Sie die Abdeckung der Kopfform. Bedecken Sie die genau definierten Bereiche der Kopfhaut auf Magnetresonanzbildern (MR), über der Inion auf der Rückseite und der Nasion auf der Vorderseite, sowie der Nasenbrücke.
    HINWEIS: Diese Punkte werden für die Ko-Registrierung mit einem anatomischen Bild für eine bessere individuelle Quellrekonstruktion verwendet.
  8. Entfernen Sie die Brille mit dem Tracker-Sensor.
  9. Befestigen Sie Einwegelektroden oben (Oberbogenbogen) und darunter (medial am zygomatischen Kieferknochen) das rechte Auge, um vertikale Augenbewegungen zu überwachen.
  10. Befestigen Sie Einwegelektroden links vom linken Auge und rechts vom rechten Auge (dorsal am zygomatischen Kieferknochen), um horizontale Augenbewegungen zu überwachen.
  11. Befestigen Sie Einwegelektroden unter dem Herzen und unter dem rechten Schlüsselbein, um die Herzfrequenz zu überwachen.
    HINWEIS: Die Augen und die Herzsignale sind relativ robust, daher ist es nicht notwendig, die Impedanz von Einwegelektroden zu überprüfen.
  12. Befestigen Sie eine Einwegelektrode als Boden unter dem Hals.
  13. Begleiten Sie den Teilnehmer in den meg abgeschirmten Raum und weisen Sie ihn an, im MEG-Stuhl zu sitzen.
  14. Schließen Sie den HPI Kabelbaum und die Einwegelektroden in das MEG-System.
  15. Heben Sie den Stuhl so an, dass der Kopf des Teilnehmers die Oberseite des MEG-Helms berührt, und stellen Sie sicher, dass sich der Teilnehmer in dieser Position wohlfühlt.
  16. Schließen Sie die Tür zum abgeschirmten Raum und kommunizieren Sie mit dem Teilnehmer über die Gegensprechanlage innerhalb und außerhalb des abgeschirmten Raumes.
  17. Weisen Sie den Teilnehmer an, passiv auf einen leeren Bildschirm (leer bis auf ein zentrales Fixierungskreuz) für 5 min zu starren, während Sie MEG-Daten im Ruhezustand bei 1 kHz aufzeichnen. Halten Sie die Abtastrate während des gesamten Experiments bei 1 kHz.
  18. Weisen Sie den Teilnehmer an die Aufgabenanforderungen und lassen Sie ihn 20 Übungsversuche durchführen.
    HINWEIS: Beispielanweisungen: "Halten Sie Ihre Fixierung in der Mitte des Bildschirms zu jeder Zeit. Ein Kreuz erscheint, und nachdem das Kreuz verschwindet, sehen Sie ein Bild gefolgt von einem verwirrten Bild. Sobald das verschlüsselte Bild verschwindet, klicken Sie auf die gelbe Schaltfläche, wenn Sie Gesichter und den grünen Button gesehen haben, wenn Sie eine Vase gesehen haben."
  19. Wechseln Sie die Antwortschaltflächen über die Teilnehmer hinweg ab (z. B. rechts für Gesichter, links für Vase oder umgekehrt).
    HINWEIS: Die Farbe der Antwortschaltflächen spielt keine Rolle.

4. Präsentieren Sie das Experiment mit Psychtoolbox16

  1. Zeigen Sie den Teilnehmern Anweisungen an, die ihnen sagen, welche Taste sie drücken sollen, wenn sie Gesichter sehen, und welche Taste sie drücken müssen, wenn sie eine Vase sehen.
  2. Erstellen Sie eine einzelne Testversion mit 4 Ereignissen, die für alle Prüfungen in dieser Reihenfolge gilt: Fixierungskreuz, Rubinbild, Maske und Antwortaufforderung (Abbildung 1).
  3. Zeigen Sie zu Beginn jeder Prüfung das Fixierungskreuz für einen variablen Zeitraum zwischen 1 s und 1,8 s an.
  4. Entfernen Sie am Ende dieses Zeitraums das Fixierungskreuz, und zeigen Sie das Rubin-Bild für 150 ms an.
  5. Entfernen Sie am Ende der 150 ms das Rubin-Bild und zeigen Sie die Maske für 200 ms an.
  6. Entfernen Sie am Ende der 200 ms die Maske, und zeigen Sie eine Frage an, um die Teilnehmer aufzufordern, mit einer maximalen Antwortfrist von 2 s zu antworten.
  7. Programmieren Sie den Antwortzeitraum so, dass, wenn die Teilnehmer innerhalb von 2 s antworten, die nächste Testversion (beginnend mit einem Fixierungskreuz) beginnt, wenn sie dies tun. Andernfalls starten Sie die nächste Prüfung nach 2 s.
  8. Speichern Sie das Timing aller 4 Ereignisse sowie die Antwortauswahl und ihr Timing.
  9. Wiederholen Sie die gleiche Teststruktur 100 Mal, bevor Sie eine Anweisung für die Teilnehmer anzeigen, sich kurz auszuruhen. Dies stellt einen versuchsheinen Block dar.
  10. Wiederholen Sie die Blockstruktur 4 Mal für insgesamt 400 Versuche.

5. Überwachen Sie MEG-Signal und Teilnehmer während des Experiments

  1. Überwachen Sie den Teilnehmer per Video.
  2. Beginnen Sie zu Beginn jedes Blocks, bevor die Aufgabe beginnt, beginnen Sie mit der Messung der MEG-Daten und zeichnen Sie die Ausgangsposition der Teilnehmer in Bezug auf die MEG auf. Klicken Sie im verwendeten MEG-System auf GO, um zu starten. Wenn in einem Dialogfeld gefragt wird, ob die HPI-Daten weggelassen oder der Aufzeichnung hinzugefügt werden sollen, überprüfen Sie das HPI-Spulensignal, und klicken Sie auf Akzeptieren, um diese anfängliche Kopfposition aufzuzeichnen. Klicken Sie danach auf Raw aufzeichnen, um die Aufzeichnung von MEG-Daten zu starten.
  3. Wenn der Teilnehmer zu irgendeinem Zeitpunkt des Experiments das Experiment abbrechen möchte, beenden Sie das Experiment und gehen Sie in den abgeschirmten Raum, um alle Sensoren aus dem MEG-System zu trennen und den Teilnehmer vom Stuhl zu befreien.
  4. Überwachen Sie die MEG-Signale, indem Sie sie in Echtzeit auf dem Erfassungscomputer visualisieren.
  5. Zwischen den Blöcken kommunizieren Sie mit dem Teilnehmer über das Lautsprechersystem, um sicherzustellen, dass sie gut und bereit sind, fortzufahren, und weisen Sie sie an, ihre Gliedmaßen zu bewegen, wenn sie es wünschen, aber nicht ihren Kopf.
  6. Zwischen den Blöcken speichern Sie die erfassten MEG-Signale dieses Blocks.
  7. Gehen Sie nach dem Ende des Experiments in den abgeschirmten Raum, ziehen Sie alle Sensoren aus dem MEG-System ab und lassen Sie den Teilnehmer vom Stuhl.
  8. Begleiten Sie den Teilnehmer aus dem abgeschirmten Raum und bieten Sie ihm die Wahl, entweder alle Sensoren von ihrem Gesicht und Körper selbst zu lösen oder die Sensoren für sie zu lösen.
  9. Danken Sie dem Teilnehmer und geben Sie ihm eine finanzielle Entschädigung.

6. Vorprozess- und Segment-MEG-Signale

  1. Verwenden Sie den im Maxfilter-Programm implementierten Signalraumtrennalgorithmus (vom MEG-Hersteller bereitgestellt) mit Standardparameterwerten, um externes Rauschen von den kontinuierlichen MEG-Signalen zu entfernen.
  2. Wenden Sie einen 0,1 Hz-Hochpassfilter auf die kontinuierlichen Daten mit der Fieldtrip-Toolbox 17-Funktion ft_preprocessing an.
    HINWEIS: Alle nachträglich gemeldeten Funktionen mit dem Präfix 'ft_' sind Teil der Fieldtrip-Toolbox.
  3. Segmentieren Sie die MEG-Daten, indem Sie die 1 Sekunde vor der Stimulus-Präsentation zu jeder Studie extrahieren.
  4. Weisen Sie diesen Epochen ein "Gesicht"- oder "Vase"-Testtyp-Etikett entsprechend den Verhaltensreaktionen der Teilnehmer in jeder Studie zu.
  5. Überprüfen Sie Versuche und Kanäle visuell, um diejenigen zu identifizieren und zu entfernen, die über steigende Geräusche oder Artefakte zeigen, unabhängig von der Art der Artefakte, mit ft_rejectvisual.
  6. Ablehnen Sie Versuche und Kanäle mit Z-Werten über 3, indem Sie auf zscore klicken und Versuche und Kanäle auswählen, die den Wert von 3 oder Versuche mit überschüssiger Varianz überschreiten, indem Sie Ausreißer entfernen, die nach dem Klicken auf varangezeigt werden. Prüfen Sie das MEG-Signal für alle Versuche vor oder nach diesem Verfahren.

7. Quellenrekonstruktion

  1. Schließen Sie beide Testtypen ein, um die Quelllokalisierung durchzuführen, um gemeinsame linear eingeschränkte minimale Varianz12 räumliche Filter in der in Fieldtrip implementierten Beamforming-Prozedur zu erhalten.
  2. Bandpassfilter filtern die epochierten Daten zu den Voninteresseen, in diesem Fall zwischen 1 und 40 Hz.
  3. Wählen Sie die Zeit des Interesses aus, um die Kovarianzmatrix zu berechnen, in diesem Fall die 1 Sekunde vorreizende Periode.
    HINWEIS: Die resultierenden Datensegmente (ausgewählt zwischen -1 bis 0 s und 1 bis 40 Hz) werden in allen folgenden Schritten verwendet, die eine Dateneingabe erfordern.
  4. Segmentieren Sie das Gehirn und die Kopfhaut aus einzelnen strukturellen MR-Bildern mit ft_volumesegment. Falls nicht verfügbar, verwenden Sie stattdessen einen Standard-T1 (aus der statistischen parametrischen Kartierung [SPM] Toolbox) Montreal Institute of Neurology (MNI, Montreal, Quebec, Kanada).
  5. Erstellen Sie für jeden Teilnehmer ein realistisches Einzelschalenkopfmodell mit ft_prepare_headmodel.
  6. Suchen Sie auf einzelnen MR-Bildern die fiducial-Sehenswürdigkeiten, indem Sie auf ihre Position auf dem Bild klicken, um eine grobe Ko-Registrierung mit ft_volumerealign zu initiieren.
  7. Richten Sie die Kopfformpunkte mit der Kopfhaut für eine feinere Co-Registrierung aus.
  8. Bereiten Sie ein individuelles 3D-Raster mit einer Auflösung von 1,5 cm basierend auf der MNI-Vorlage vor, die sich in das Gehirnvolumen jedes Teilnehmers mit ft_prepare_sourcemodel verwandelt hat.
  9. Berechnen Sie das Vorwärtsmodell für die MEG-Kanäle und die Rasterpositionen mit ft_prepare_leadfield. Verwenden Sie die Konfiguration fixedori, um das Bleifeld für nur eine optimale Dipolausrichtung zu berechnen.
  10. Berechnen Sie die Kovarianzmatrix jeder Studie und durchschnittlich emittieren Sie sie über alle Studien hinweg.
  11. Berechnen Sie die räumlichen Filter mithilfe des Vorwärtsmodells und der durchschnittlichen Kovarianzmatrix mit der ft_sourceanalysis.
  12. Multiplizieren Sie das Sensorpegelsignal mit den LCMV-Filtern, um die Zeitreihen für jede Quellposition im Raster und für jede Testversion zu erhalten.

8. Analysieren Sie die Oszillationskraft vor dem Stimulus in der Interessenregion

  1. Definieren Sie eine Region von Interesse (ROI), z. B. aus der vorherigen Literatur18 (hier fusiformische Fläche [FFA]; MNI-Koordinaten: [28 -64 -4] mm).
  2. Wählen Sie den virtuellen Sensor heraus, der räumlich dem ROI entspricht, indem Sie ft_selectdata verwenden.
  3. Teilen Sie Gesichts- und Vasenversuche mit ft_selectdata.
  4. Führen Sie eine Frequenzanalyse des ROI getrennt auf die Daten aus den beiden Testtypen mithilfe der ft_freqanalysis durch.
  5. Legen Sie die Methodenoption auf mtmfft fest, um eine schnelle Fourier-Transformation durchzuführen.
  6. Legen Sie die Verjüngungsoption auf hanning fest, um eine Hann-Funktion zu verwenden.
  7. Definieren Sie die von Interesse sind den Frequenzen von 1 Hz bis 40 Hz.
  8. Legen Sie die Ausgabeoption auf pow fest, um Leistungswerte aus den komplexen Fourier-Spektren zu extrahieren.
  9. Wiederholen Sie den Vorgang für jeden Teilnehmer, bevor Sie die Spektren über die Teilnehmer durchschnittlich eingleiten und die resultierenden großgemittelten Leistungswerte in Abhängigkeit von den Voninteressesfrequenzen zeichnen.

9. Analysieren der Pre-Stimulus-Konnektivität zwischen Interessengebieten

  1. Definieren Sie einen (oder mehrere) ROI, mit dem der zuvor ausgewählte ROI als verbunden gilt, z. B. aus der vorherigen Literatur18 (hier V1; MNI-Koordinaten: [12 -88 0]).
  2. Wiederholen Sie die Schritte 8.2 und 8.3.
  3. Führen Sie die Zeitfrequenzanalyse für beide ROIs (dargestellt als 2 Kanäle oder "virtuelle Sensoren" innerhalb derselben Datenstruktur) getrennt auf den Daten aus den beiden Testtypen mithilfe von ft_freqanalysis durch.
  4. Legen Sie die Methode auf mtmconvol fest, um eine Multitaper-Zeit-Frequenz-Transformation basierend auf der Multiplikation im Frequenzbereich zu implementieren.
  5. Legen Sie die Taper-Option auf dpss fest, um eine diskrete prolate sphäroidale Sequenzfunktion zu verwenden.
  6. Definieren Sie die von Interesse sind den Frequenzen von 8 Hz bis 13 Hz.
  7. Legen Sie die Breite des Zeitfensters auf 200 ms und den Glättungsparameter auf 4 Hz fest.
  8. Legen Sie die Option keeptrials auf yes fest, um die Zeit-Frequenz-Schätzungen der einzelnen Versuche zurückzugeben.
  9. Stellen Sie die Ausgabe auf fourier ein, um die komplexen Fourier-Spektren zurückzugeben.
  10. Führen Sie mithilfe der ft_connectivityanalysis eine Konnektivitätsanalyse für die resultierenden Zeitfrequenzdaten durch.
  11. Legen Sie die Methode auf coh und das komplexe Feld fest, um sich vorzustellen, dass der imaginäre Teil der Koherency 19zurückgegeben wird.
  12. Wiederholen Sie den Vorgang für jeden Teilnehmer, bevor Sie die Kohärenzspektren über Frequenzen und Teilnehmer durchschnittlich isieren und die resultierenden großgemittelten imaginären Kohärenzwerte als Funktion der Zeit zeichnen.

10. Statistischer Vergleich der Gesichts- und Vase-Vorreizkraft oder Kohärenzspektren

  1. Kombinieren Sie die Pre-Stimulus-Power- oder Kohärenzdaten von jedem Betreff innerhalb jeder der beiden Bedingungen in einer Matlab-Variablen mit ft_freqgrandaverage mit der Option keepindividual auf yesgesetzt.
  2. Führen Sie einen clusterbasierten Permutationstest20 durch, in dem die beiden resultierenden Variablen mit ft_freqstatistics verglichen werden.
  3. Legen Sie die Methodenoption auf motecarlofest.
  4. Legen Sie die Frequenzoption auf [8 13] und avgoverfreq auf yesfest.
  5. Legen Sie clusteralpha auf 0,05 fest und korrigieren Sie correcttail auf alpha.
  6. Legen Sie die Statistikoption auf ft_statfun_depsamplesTfest.
  7. Erstellen Sie eine Entwurfsmatrix mit einer ersten Zeile von 20, gefolgt von 20 Zweien und einer zweiten Reihe aufeinander folgender Zahlen von 1 bis 20 zweimal wiederholt. Übergeben Sie diese Entwurfsmatrix an die Entwurfsoption.
    HINWEIS: Die Konstruktionsmatrix ist in Blöcke von 20 unterteilt, da die Daten von 20 Teilnehmern gesammelt wurden.
  8. Stellen Sie die Option ivar auf 1 und die Uvar-Option auf 2.

Representative Results

Wir stellten den Teilnehmern die Rubin-Gesichts-/Vase-Illusion kurz und wiederholt vor und baten die Teilnehmer, nach jeder Studie ihr Wahrnehmen (Gesicht oder Vase?) nach jeder Studie zu melden (Abbildung 1). Jeder Prüfung gingen mindestens 1 s eines leeren Bildschirms (mit Fixierungskreuz) voraus; dies war das Pre-Stimulus-Intervall von Interesse.

Wir fragten, ob die oszillierende Kraft vor der Stimulierung in Interessengebieten oder die Konnektivität zwischen Interessengebieten den Wahrnehmungsbericht über die bevorstehenden mehrdeutigen Impulse beeinflusste. Daher haben wir in einem ersten Schritt unsere Daten in den Quellbereich projiziert, so dass wir Signale aus den relevanten ROIs extrahieren konnten.

Basierend auf früherer Literatur, die die Gesichts- und Objektwahrnehmung mit zweideutigen21 und eindeutigen22 Reizen untersuchte, haben wir die FFA als unseren ROI bestimmt. Anschließend analysierten wir die niederfrequenten (1-40 Hz) Spektralkomponenten des FFA-Quellsignals und kontrastierten die Spektralschätzungen aus Studien, die als "Gesicht" berichtet wurden, mit denen aus Studien, die als "Vase" gemeldet wurden. Ein Cluster-basierter Permutationstest, der sich über die Frequenzen 1-40 Hz gruppierte und die Spektralleistung in Studien kontrastiert, bei denen Menschen Von Gesicht zu Vase berichteten, zeigte keine signifikanten Unterschiede zwischen den beiden Versuchstypen. Dennoch zeigten die Leistungsspektren beschreibend die erwartete oszillierende Alphabandspitze im Bereich von 8-13 Hz und in geringerem Maße Betabandaktivität im Bereich von 13-25 Hz (Abbildung 2).

Nachdem wir keine Unterschiede in der Spektralleistung vor dem Stimulus festgestellt hatten, untersuchten wir als nächstes, ob es Unterschiede in der Pre-Stimulus-Konnektivität zwischen den Versuchstypen gab. Neben der FFA haben wir V1 aufgrund seiner allgegenwärtigen Beteiligung an der Vision zu unserem zweiten ROI gemacht. Basierend auf den Ergebnissen der Leistungsanalyse haben wir die Frequenzen 8-13 Hz als unsere von Interesse bestimmten Frequenzen bestimmt. Wir berechneten den zeit- und frequenzaufgelösten imaginären Teil der Koherenz zwischen unseren beiden ROIs, getrennt für Gesichts- und Vasenversuche, und durchschnittliche das Ergebnis über die Frequenzen von Interesse. Diese Maßnahme reflektiert die Synchronität der Oszillationsphase zwischen Hirnregionen und konservativ Kontrollen gegen Volumenleitungseffekte in MEG rekonstruierten Quellen19, so war es die Methode der Wahl für die Bewertung der funktionellen Kopplung. Ein clusterbasierter Permutationstest, der sich über die Zeitpunkte -1 bis 0 s gruppierte und die imaginäre Koherenz zwischen V1 und FFA in Studien kontrastiert, bei denen Menschen von Gesicht vs Vase berichteten, ergab, dass Gesichtsversuche eine stärkere Prästimulus-Konnektivität im Vergleich zu Vasenversuchen hatten, ca. 700 ms vor Beginn des Stimulus (Abbildung 3).

Figure 1
Abbildung 1 : Beispiel-Teststruktur und Rohdaten. Untere Platte: Eine Testversion beginnt mit der Anzeige eines Fixierungskreuzes. Nach 1 bis 1,8 s erscheint der Rubin-Stimulus für 150 ms, gefolgt von einer Maske für 200 ms. Ein Antwortbildschirm scheint die Teilnehmer dann aufzufordern, mit "Gesicht" oder "Vase" zu antworten. Top Panel: Mehrkanal-Rohdaten von einem Beispielteilnehmer, zeitgebunden bis zum Stimulus-Beginn und gemittelt über Versuche hinweg. Dies ist ein Schaltplan, um die Daten im Fenster der Pre-Stimulus-Analyse hervorzuheben (-1 s bis 0 s; rosa hervorgehoben), das das Zielintervall für die Analyse sein wird. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 2
Abbildung 2 : Spektrale Leistung in der FFA. Spektrale Leistungsschätzungen von quellenlokalisierten FFA-Signalen auf Gesichts- und Vasenversuchen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 3
Abbildung 3 : Konnektivität zwischen V1 und FFA. Imaginärer Teil der Koscherenz zwischen quellenlokalisierten V1- und FFA-Signalen bei Gesichts- und Vasenversuchen im Frequenzbereich von 8-13 Hz. Schattierte Regionen stellen den Standardfehler des Mittelwerts für die Einzelnenentwürfe23dar. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Discussion

Die Darstellung eines einzigartigen Stimulus, der im Laufe der Zeit als mehr als ein Objekt interpretiert werden kann, aber als nur ein Objekt zu einem bestimmten Zeitpunkt, ermöglicht die Untersuchung von Prästimulus-Effekten auf die Objektwahrnehmung. Auf diese Weise ist man in der Lage, Prästimulus-Gehirnzustände mit subjektiven Berichten der wahrgenommenen Objekte in Beziehung zu setzen. In einer Laborumgebung bieten mehrdeutige Bilder, die auf zwei Arten interpretiert werden können, wie die Rubinvase Illusion, einen optimalen Fall, der eine einfache Kontraste der Gehirnaktivität zwischen zwei Versuchstypen ermöglicht: die, die auf eine Weise wahrgenommen werden (z. B. "Gesicht" ) und die in die andere Richtung wahrgenommen werden (z. B. "Vase").

Die kurze Präsentation dieser Reize (<200 ms) stellt sicher, dass die Menschen nur eine der beiden möglichen Interpretationen des Stimulus in einem bestimmten Versuch sehen und anschließend melden. Die Gegengewichtung (zufällig abwechselnd) zwischen der schwarzen Vase/weißen Gesichtern und weißen Vasen/schwarzen Flächen versionen des Stimulus über die Teilnehmer hinweg reduziert den Einfluss von Low-Level-Stimulus-Features auf die nachfolgende Analyse. Das Präsentieren einer Maske unmittelbar nach dem Stimulus verhindert, dass nach dem Bild die Reaktionen der Teilnehmer gebildet und verzerrt werden. Da die Analyse der Zeit nach dem Stimulusbeginn nicht von Interesse ist, ist keine Übereinstimmung zwischen niederfrequenten Merkmalen des Stimulus und der Maske erforderlich. Schließlich verhindert das Wechseln der Antworttasten über die Teilnehmer hinweg (z. B. links für Vase, rechts für Gesicht oder umgekehrt), dass Aktivitäten aufgrund der Motorvorbereitung in die Kontraste einfließen.

Angesichts der Millisekundenauflösung von MEG reicht ein Pre-Stimulus-Intervall von nur 1 s aus, um Maßnahmen wie Spektralleistung und Konnektivität abzuschätzen. Angesichts der kurzen Dauer jeder resultierenden Studie kann eine große Anzahl von Versuchen in einer experimentellen Sitzung durchgeführt werden, wodurch ein hohes Signal-Rausch-Verhältnis bei der Mittelung von MEG-Signalen über Versuche hinweg gewährleistet wird.

Bestimmte kategoriesensitive Bereiche von Interesse haben sich bei der Objektwahrnehmung24,25als aktiv erwiesen. Zum Beispiel wird berichtet, dass die FFA häufig an der Gesichtswahrnehmung beteiligt ist22. Um die Auswirkungen der gemessenen Aktivität aus bestimmten Quellen zu untersuchen, kann man MEG-Daten von Der Quelle rekonstruieren. Um die Konnektivität zwischen Quellen zu untersuchen, ist eine Quellrekonstruktion erforderlich. Um die Quelldatenanalyse zu erleichtern, können Daten auf Quellenebene durch "virtuelle Sensoren" dargestellt werden. Die Darstellung der Daten auf diese Weise ermöglicht es, Single-Trial-Quelldaten im Quell- und Sensorbereich genau auf die gleiche Weise zu analysieren (d. h. mit den gleichen Analysefunktionen, z. B. mit der Fieldtrip-Toolbox). Dies ermöglicht dann das einfache Testen von Hypothesen über die Aktivität bestimmter Interessenbereiche.

Während sich gezeigt hat, dass die oszillierende Kraft vor dem Stimulus die Stimuluserkennung nahe der Wahrnehmungsschwelle beeinflusst (wahrgenommen vs. nicht wahrgenommen), ist es weniger bekannt, ob sie den Inhalt des Gesehenen beeinflusst. Hier stellten wir die Oszillationskraft vor dem Stimulus in der FFA zwischen Studien, bei denen Menschen Gesicht und Vase berichteten, und fanden keine statistischen Unterschiede. Anschließend haben wir getestet, ob die Konnektivität zwischen V1 und FFA den bevorstehenden Wahrnehmungsbericht beeinflusst, und festgestellt, dass Gesichtsversuchen eine verbesserte Konnektivität zwischen V1 und FFA im Alpha-Frequenzbereich um 700 ms vor dem Beginn des Stimulus vorausging. Dass wir keinen Effekt in der Alpha-Power gefunden haben, sondern eher in der Konnektivität im Alpha-Band, legt nahe, dass die Vor-Stimulus-Alpha-Kraft zwar die Stimuluserkennung7,8beeinflussen könnte, aber nicht unbedingt die Objektkategorisierung beeinflusst. Unsere Ergebnisse zeigen daher, dass für ein vollständigeres Verständnis der oszillatoren Dynamik vor der Objektwahrnehmung und deren anschließender Einfluss auf die Objektwahrnehmung eine einfache Analyse der Oszillationskraft in Interessensgebieten nicht ausreicht. Vielmehr muss die Konnektivität zwischen den Interessengebieten berücksichtigt werden, da die anhaltenden Schwankungen in der Stärke dieser Verbindungen die nachfolgende Wahrnehmung verzerrt enden können18. Schließlich zeigt unser Protokoll trotz der weniger optimalen räumlichen Auflösung von MEG, dass man in der Lage ist, Interessengebiete klar zu identifizieren und ihre Beziehungen zu untersuchen. MEG kann die Elektroenzephalographie (EEG) ablösen, weil es eine überlegene räumliche Auflösung bietet, und kann die MrT-Funktion ablösen, da sie eine überlegene zeitliche Auflösung bietet. Daher ist MEG in Kombination mit der Quellrekonstruktion ideal geeignet, um schnelle und lokalisierte neuronale Prozesse zu untersuchen.

Disclosures

Die Autoren haben nichts zu verraten.

Acknowledgments

Diese Arbeit wurde unterstützt vom FWF Austrian Science Fund, Imaging the Mind: Connectivity and Higher Cognitive Function, W 1233-G17 (zu E.R.) und european Research Council Grant WIN2CON, ERC StG 283404 (zu N.W.). Die Autoren würdigen die Unterstützung von Nadia Müller-Voggel, Nicholas Peatfield und Manfred Seifter für Beiträge zu diesem Protokoll.

Materials

Name Company Catalog Number Comments
Data analysis sowftware Elekta Oy, Stockholm, SWEDEN NM23321N Elekta standard data analysis software including MaxFilter release 2.2 
Data analysis workstation Elekta Oy, Stockholm, SWEDEN NM20998N MEG recoding PC and software
Head position coil kit Elekta Oy, Stockholm, SWEDEN NM23880N 5 Head Position Indicator (HPI) coils 
Neuromag TRIUX Elekta Oy, Stockholm, SWEDEN NM23900N 306-channel magnetoencephalograph system
Polhemus Fastrak 3D Polhemus, VT, USA 3D head digitization system
PROPixx VPixx Technologies Inc., QC, CANADA VPX-PRO-5001C Projector and data acquisition system
RESPONSEPixx VPixx Technologies Inc., QC, CANADA VPX-ACC-4910 MEG-compatible response collection handheld control pad system
Screen VPixx Technologies Inc., QC, CANADA VPX-ACC-5180 MEG-compatible rear projection screen with frame and stand
VacuumSchmelze AK-3 VacuumSchmelze GmbH & Co. KG, Hanau, GERMANY NM23122N Two-layer magnetically-shielded room
Software Version
Fieldtrip Open Source FTP-181005 fieldtriptoolbox.org
Matlab MathWorks, MA, USA R2018b mathworks.com/products/matlab
Psychophysics Toolbox Open Source PTB-3.0.13 psychtoolbox.org

DOWNLOAD MATERIALS LIST

References

  1. Arieli, A., Sterkin, A., Grinvald, A., Aertsen, A. Dynamics of ongoing activity: explanation of the large variability in evoked cortical responses. Science. 273, (5283), 1868-1871 (1996).
  2. Boly, M., et al. Baseline brain activity fluctuations predict somatosensory perception in humans. Proceedings of the National Academy of Sciences of the United States of America. 104, (29), 12187-12192 (2007).
  3. Rahn, E., Başar, E. Prestimulus EEG-activity strongly influences the auditory evoked vertex response: a new method for selective averaging. The International Journal of Neuroscience. 69, (1-4), 207-220 (1993).
  4. Supèr, H., van der Togt, C., Spekreijse, H., Lamme, V. A. F. Internal state of monkey primary visual cortex (V1) predicts figure-ground perception. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 23, (8), 3407-3414 (2003).
  5. Frey, J. N., et al. The Tactile Window to Consciousness is Characterized by Frequency-Specific Integration and Segregation of the Primary Somatosensory Cortex. Scientific Reports. 6, 20805 (2016).
  6. Leonardelli, E., et al. Prestimulus oscillatory alpha power and connectivity patterns predispose perceptual integration of an audio and a tactile stimulus. Human Brain Mapping. 36, (9), 3486-3498 (2015).
  7. Leske, S., et al. Prestimulus Network Integration of Auditory Cortex Predisposes Near-Threshold Perception Independently of Local Excitability. Cerebral Cortex. 25, (12), New York, NY. 4898-4907 (2015).
  8. Weisz, N., et al. Prestimulus oscillatory power and connectivity patterns predispose conscious somatosensory perception. Proceedings of the National Academy of Sciences of the United States of America. 111, (4), 417-425 (2014).
  9. Busch, N. A., Dubois, J., VanRullen, R. The phase of ongoing EEG oscillations predicts visual perception. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 29, (24), 7869-7876 (2009).
  10. Mathewson, K. E., Gratton, G., Fabiani, M., Beck, D. M., Ro, T. To see or not to see: prestimulus alpha phase predicts visual awareness. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 29, (9), 2725-2732 (2009).
  11. Blake, R., Logothetis, N. K. Visual competition. Nature Reviews Neuroscience. 3, (1), 13-21 (2002).
  12. Van Veen, B. D., van Drongelen, W., Yuchtman, M., Suzuki, A. Localization of brain electrical activity via linearly constrained minimum variance spatial filtering. IEEE Transactions on Biomedical Engineering. 44, (9), 867-880 (1997).
  13. Bastos, A. M., Schoffelen, J. -M. A Tutorial Review of Functional Connectivity Analysis Methods and Their Interpretational Pitfalls. Frontiers in Systems Neuroscience. 9, 175 (2015).
  14. Rubin, E. Synsoplevede Figurer. Gyldendalske Boghandel. Copenhagen. (1915).
  15. Balderston, N. L., Schultz, D. H., Baillet, S., Helmstetter, F. J. How to detect amygdala activity with magnetoencephalography using source imaging. Journal of Visualized Experiments. (76), e50212 (2013).
  16. Kleiner, M., et al. What's new in psychtoolbox-3. Perception. 36, (14), 1-16 (2007).
  17. Oostenveld, R., Fries, P., Maris, E., Schoffelen, J. -M. FieldTrip: Open source software for advanced analysis of MEG, EEG, and invasive electrophysiological data. Computational Intelligence and Neuroscience. 2011, 156869 (2011).
  18. Rassi, E., Wutz, A., Mueller-Voggel, N., Weisz, N. Pre-stimulus feedback connectivity biases the content of visual experiences. BioRxiv. (2019).
  19. Nolte, G., et al. Identifying true brain interaction from EEG data using the imaginary part of coherency. Clinical Neurophysiology: Official Journal of the International Federation of Clinical Neurophysiology. 115, (10), 2292-2307 (2004).
  20. Maris, E., Oostenveld, R. Nonparametric statistical testing of EEG- and MEG-data. Journal of Neuroscience Methods. 164, (1), 177-190 (2007).
  21. Hesselmann, G., Kell, C. A., Eger, E., Kleinschmidt, A. Spontaneous local variations in ongoing neural activity bias perceptual decisions. Proceedings of the National Academy of Sciences of the United States of America. 105, (31), 10984-10989 (2008).
  22. Kanwisher, N., McDermott, J., Chun, M. M. The fusiform face area: a module in human extrastriate cortex specialized for face perception. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 17, (11), 4302-4311 (1997).
  23. Morey, R. D. Confidence Intervals from Normalized Data: A correction to Cousineau. Tutorials in Quantitative Methods for Psychology. 4, (2), 61-64 (2008).
  24. Miller, E. K., Nieder, A., Freedman, D. J., Wallis, J. D. Neural correlates of categories and concepts. Current Opinion in Neurobiology. 13, (2), 198-203 (2003).
  25. Kreiman, G., Koch, C., Fried, I. Category-specific visual responses of single neurons in the human medial temporal lobe. Nature Neuroscience. 3, (9), 946-953 (2000).

Comments

0 Comments


    Post a Question / Comment / Request

    You must be signed in to post a comment. Please or create an account.

    Usage Statistics