Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Verwenden der Rassenmodellungleichheit zur Quantifizierung von verhaltens- multisensorischen Integrationseffekten

Published: May 10, 2019 doi: 10.3791/59575

Summary

Die aktuelle Studie zielt darauf ab, ein Schritt-für-Schritt-Tutorial zur Berechnung des Ausmaßes multisensorischer Integrationseffekte bereitzustellen, um die Erstellung von translationalen Forschungsstudien über verschiedene klinische Populationen hinweg zu erleichtern.

Abstract

Die multisensorische Integrationsforschung untersucht, wie das Gehirn gleichzeitig sensorische Informationen verarbeitet. Die Forschung an Tieren (hauptsächlich Katzen und Primaten) und Menschen zeigt, dass eine intakte multisensorische Integration für das Funktionieren in der realen Welt, einschließlich kognitiver und körperlicher Aktivitäten, von entscheidender Bedeutung ist. Ein Großteil der Forschung, die in den letzten Jahrzehnten durchgeführt wurde, dokumentiert multisensorische Integrationseffekte mit verschiedenen psychophysischen, elektrophysiologischen und neuroimaging Techniken. Während seine Anwesenheit berichtet wurde, die Methoden verwendet, um das Ausmaß der multisensorischen Integrationseffekte zu bestimmen variiert und in der Regel viel Kritik ausgesetzt. Im Folgenden werden Einschränkungen früherer Verhaltensstudien beschrieben und ein Schritt-für-Schritt-Tutorial zur Berechnung der Größe multisensorischer Integrationseffekte mithilfe robuster Wahrscheinlichkeitsmodelle bereitgestellt.

Introduction

Interaktionen zwischen Sinnessystemen sind für alltägliche Funktionen unerlässlich. Während multisensorische Integrationseffekte in einer Vielzahl von Populationen mit verschiedenen sensorischen Kombinationen und verschiedenen neurowissenschaftlichen Ansätzen gemessen werden [einschließlich, aber nicht beschränkt auf die psychophysische, elektrophysiologische und neuroimaging Methoden]1,2,3,4,5,6,7,8,9, derzeit ein Goldstandard für multisensorische Integration fehlt. Da multisensorische Experimente in der Regel eine Verhaltenskomponente enthalten, werden oft Reaktionszeitdaten (RT) untersucht, um die Existenz eines bekannten Phänomens zu bestimmen, das als redundanter Signaleffekt10bezeichnet wird. Wie der Name schon sagt, liefern simultane sensorische Signale redundante Informationen, die in der Regel schnellere RTs liefern. Race- und Co-Aktivierungsmodelle werden verwendet, um die oben genannten redundanten Signale effekt11zu erklären. Unter Rennmodellen ist das unisensorische Signal, das am schnellsten verarbeitet wird, der Gewinner des Rennens und verantwortlich für die Erzeugung der Verhaltensreaktion. Jedoch, Beweise für die Co-Aktivierung tritt auf, wenn Reaktionen auf multisensorische Reize sind schneller als das, was Rennmodelle vorhersagen.

Frühere Versionen des Rennmodells sind von Natur aus umstritten12,13, da sie von einigen als zu konservativ14,15 bezeichnet werden und angeblich Einschränkungen in Bezug auf die Unabhängigkeit enthalten zwischen den konstituierenden unisensorischen Detektionszeiten, die der multisensorischen Bedingung inhärent sind16. Um einige dieser Einschränkungen zu beseitigen, entwickelte Colonius & Diederich16 einen konventionelleren Rennmodelltest:

Equation 1,

wenn die kumulativen Verteilungsfrequenzen (CDFs) der unisensorischen Bedingungen (z. B. A & B; mit einer Obergrenze von eins) mit dem CDF des gleichzeitigen multisensorischen Zustands (z. B. AB) für eine gegebene Latenz verglichen werden (t)11, 16 , 17. Im Allgemeinen bestimmt ein CDF, wie oft ein RT innerhalb eines bestimmten RT-Bereichs auftritt, dividiert durch die Gesamtzahl der Stimuluspräsentationen (d. h. Versuche). Wenn die CDF des tatsächlichen Equation 2 multisensorischen Zustands kleiner oder gleich der vorhergesagten CDF ist, die von den unisensorischen Bedingungen abgeleitet wurde

Equation 3,

dann wird das Rennmodell akzeptiert und es gibt keine Hinweise auf eine sensorische Integration. Wenn die multisensorische CDF jedoch größer ist als die vorhergesagte CDF, die von den unisensorischen Bedingungen abgeleitet wurde, wird das Rennmodell abgelehnt. Die Ablehnung des Rennmodells zeigt an, dass sich multisensorische Wechselwirkungen von redundanten sensorischen Quellen nichtlinear kombinieren, was zu einer Beschleunigung von RTs (z. B. RT-Erleichterung) zu multisensorischen Reizen führt.

Eine Haupthürde, mit der multisensorische Forscher konfrontiert sind, ist die bestmögliche Quantifizierung von Integrationseffekten. Zum Beispiel, im Falle des grundlegendsten verhaltens-multisensorischen Paradigmas, bei dem die Teilnehmer aufgefordert werden, eine einfache Reaktionszeitaufgabe durchzuführen, werden Informationen über Genauigkeit und Geschwindigkeit gesammelt. Solche multisensorischen Daten können zum Nennwert verwendet oder mit verschiedenen mathematischen Anwendungen manipuliert werden, einschließlich, aber nicht beschränkt auf Maximum Likelihood Estimation18,19, CDFs11, und verschiedene andere statistische Ansätze. Die meisten unserer früheren multisensorischen Studien verwendeten sowohl quantitative als auch probabilistische Ansätze, bei denen multisensorische integrative Effekte berechnet wurden, indem 1) die mittlere Reaktionszeit (RT) auf ein multisensorisches Ereignis von der mittleren Reaktionszeit subtrahiert wurden ( RT) auf das kürzeste unisensorische Ereignis und 2) durch den Einsatz von CDFs, um festzustellen,ob die RT-Erleichterung auf synergistische Wechselwirkungen zurückzuführen ist, die durch redundante sensorische Informationen 8,20,21, 22 , 23. Die frühere Methodik war jedoch wahrscheinlich nicht empfindlich gegenüber den individuellen Unterschieden in integrativen Prozessen, und die Forscher haben seither festgestellt, dass die spätere Methodik (d. h. CDF) einen besseren Proxy für die Quantifizierung multisensorischer integrative Effekte24.

Gondan und Minakata haben vor kurzem ein Tutorial veröffentlicht, wie man die Race Model Inequality (RMI) genau testen kann, da Forscher allzu oft unzählige Fehler während der Erfassungs- und Vorverarbeitungsphasen der RT-Datenerfassung und -vorbereitung machen25. Erstens halten die Autoren dies für ungünstig, Datenkürzungsverfahren anzuwenden, bei denen bestimmte a priori-Mindest- und RT-Grenzwerte festgelegt sind. Sie empfehlen, langsame und ausgelassene Antworten auf unendlich zu setzen und nicht auszuschließen. Zweitens werden mehrere T-Tests häufig verwendet, um den RMI zu verschiedenen Zeitpunkten (d. h. Quantisaten) zu testen, da der RMI in jeder Latenz verletzt werden kann; Leider führt diese Praxis zu einem erhöhten Typ-I-Fehler und einer erheblich reduzierten statistischen Leistung. Um diese Probleme zu vermeiden, wird empfohlen, das RMI über einen bestimmten Zeitbereich zu testen. Einige Forscher haben vorgeschlagen, dass es sinnvoll ist, das schnellste Quartil von Antworten zu testen (0-25%)26 oder einige vorab identifizierte Fenster (d. h. 10-25%)24,27 als multisensorische Integrationseffekte werden typischerweise beobachtet während dieses Zeitintervalls; Wir argumentieren jedoch, dass der zu prüfende Perzentilbereich vom eigentlichen Dataset diktiert werden muss (siehe Protokollabschnitt 5). Das Problem bei der Berufung auf veröffentlichte Daten junger Erwachsener oder Computersimulationen besteht darin, dass ältere Erwachsene sehr unterschiedliche RT-Verteilungen manifestieren, wahrscheinlich aufgrund des altersbedingten Rückgangs der Sinnessysteme. Die Signifikanztests des Rennmodells sollten nur über verletzte Portionen (positive Werte) der gruppengemittelten Differenzwelle zwischen tatsächlichen und vorhergesagten CDFs aus der Studienkohorte getestet werden.

Zu diesem Zweck wurde eine schützende Wirkung der multisensorischen Integration bei gesunden älteren Erwachsenen anhand des konventionellen Tests des Rennmodells16 und der von Gondan und Kollegen25 dargelegten Prinzipien demonstriert. Tatsächlich wurde eine größere Größe des visuell-somatosensorischen RMI (ein Proxy für multisensorische Integration) mit einer besseren Balance-Performance, einer geringeren Wahrscheinlichkeit von Ereignisstürzen und einer erhöhten räumlichen Gangleistung28,29in Verbindung gebracht.

Ziel des aktuellen Experiments ist es, Forschern ein Schritt-für-Schritt-Tutorial zur Berechnung des Umfangs multisensorischer Integrationseffekte mit dem RMI zur Verfügung zu stellen, um die verstärkte Produktion verschiedener translationaler Forschungsstudien über viele verschiedene klinische Populationen. Beachten Sie, dass die in der aktuellen Studie vorgestellten Daten aus kürzlich veröffentlichten visuell-somatosensorischen Experimenten an gesunden älteren Erwachsenen28,29, aber diese Methode kann auf verschiedene Kohorten in vielen verschiedenen experimentelle Designs, die eine breite Palette von multisensorischen Kombinationen verwenden.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alle Teilnehmer erteilten schriftlich ihre Zustimmung zu den experimentellen Verfahren, die vom institutionellen Prüfungsausschuss der Albert Einstein College of Medicine genehmigt wurden.

1. Einstellung sanatder Teilnehmer, Einstellungskriterien und Zustimmung

  1. Rekrutieren Sie eine relativ große Kohorte englischsprachiger Personen, die unabhängig ambulaten können und frei von signifikanten sensorischen Verlusten sind; aktive neurologische oder psychiatrische Störungen, die experimentelle Auswertungen stören; und aktuelle/zukünftige medizinische Verfahren, die sich auf die Mobilität auswirken.
  2. Stellen Sie sicher, dass jeder Teilnehmer erfolgreich eine sensorische Screening-Prüfung abschließen kann, bei der visuelle, auditive und somatosensorische Schärfe formal getestet werden, um die Studientauglichkeit zu bestätigen.
    1. Verwenden Sie das Snellen-Augendiagramm, um sicherzustellen, dass die bilaterale Sehschärfe besser als oder gleich 20/100 ist.
    2. Verwenden Sie ein tonemitierendes Otoscope, um sicherzustellen, dass die Teilnehmer mindestens in der Lage sind, einen 2.000 Hz-Ton bei 25 dB30zu hören.
    3. Bestimmen Sie, ob die Teilnehmer eine Diagnose der klinischen Neuropathie aufrecht erhalten und ob sie die Fähigkeit beeinträchtigt, die experimentelle somatosensorische Stimulation zu spüren21,28,29.
    4. Wenn der Teilnehmer diese sensorischen Mindestanforderungen nicht erfüllen kann, nehmen Sie diese nicht in die Studie auf.
  3. Ausschluss älterer Erwachsener mit Demenz durch Die Implementierung von Cut-Scores von zuverlässigen Screening-Instrumenten wie dem AD8-Demenz-Screening-Interview-Cutoff-Score 2 31,32; und den Speicherbeeinträchtigungsbildschirm MIS; Cutoff-Punktzahl < 533.
  4. Lassen Sie die Teilnehmer schriftlich in Kenntnis der Sachkenntnis zu den experimentellen Verfahren ein (von einem lokalen institutionellen Prüfungsausschuss genehmigt) einwilligen, wenn sie zur Teilnahme bereit sind.

2. Experimentelles Design

  1. Verwenden Sie Stimulus-Präsentationssoftware, um ein einfaches Reaktionszeitexperiment mit drei experimentellen Bedingungen zu programmieren: visuell (V) allein, somatosensorische (S) allein, und gleichzeitige visuelle Somatosensorie (VS). Informieren Sie die Teilnehmer, so schnell wie möglich auf jeden Sensorus zu reagieren, unabhängig von der Erkrankung. Siehe ergänzende Dateien für ein Beispiel für eine VS einfache RT-Aufgabe (Ergänzende Datei 1).
    1. Verwenden Sie einen Stimulusgenerator mit drei Schaltkästen (30,48 mm x 20,32 mm x 12,70 mm) und Kunststoffgehäuse für Stimulatoren. Die linken und rechten Steuerkästen enthalten bilaterale blaue Leuchtdioden (LEDs; 15,88 cm Durchmesser), die für die visuelle Stimulation und bilaterale Motoren mit 0,8 G Vibrationsamplitude aufleuchten, die für somatosensorische Stimulation vibrieren (entspricht einem Handy-Vibration)22,23,28.
    2. Stellen Sie sicher, dass Stimulusgeneratoren sowohl unisensorische (visuelle oder somatosensorische) als auch multisensorische (gleichzeitige visuelle UND somatosensorische) Stimulation bieten. Platzieren Sie eine in 2.1.1 beschriebene mittlere Dummy-Steuerbox äquidistant (28 cm) von den linken und rechten Steuerfeldern. und befestigen Sie einen visuellen Zielaufkleber (Zentralkreis von 0,4 cm Durchmesser), um als Befestigungspunkt zu dienen.
    3. Schließen Sie den Stimulusgenerator über den Parallelport an den Experimentalcomputer an, der die direkte Steuerung für jeden Stimulator ermöglicht.
    4. Programmieren Sie die Stimulus-Präsentationssoftware, um Transistor-Transistor-Logik (TTL, 5 V) Impulse direkt über den Parallelport an die Trigger-Stimulusgeneratoren zu senden. Legen Sie die Stimulus-Präsentationszeit auf 100 ms an.
  2. In der Stimulus-Präsentationssoftware programmieren Sie mindestens 3 experimentelle Blöcke, die jeweils aus 45 Studien (15 Versuche jeder in zufälliger Reihenfolge dargestellten Stimulusbedingung) für insgesamt 135 Stimulus-Präsentationen für dieses einfache Reaktionszeitexperiment bestehen.
  3. Variieren Sie das Interstimulus-Intervall nach dem Zufallsprinzip zwischen 1 und 3 s, um vorausschauende Effekte zu verhindern. Alternativ können Sie Fangversuche einfügen, bei denen die Stimulusparameter die gleichen wie oben sind, aber der TTL-Impuls nicht gesendet wird, so dass keine visuelle oder somatosensorische Stimulation stattfindet und daher keine Reaktion erwartet wird.
  4. Erlauben Sie Teilnehmern bis zu 2.000 ms, auf eine bestimmte Reizbedingung zu reagieren. Wenn innerhalb des Antwortzeitraums von 2.000 ms keine Antwort erkannt wird, stellen Sie sicher, dass die Stimuluspräsentationssoftware automatisch zur nächsten Testversion übergeht.
    HINWEIS: Diese Antwortfenster-Abschaltung ist willkürlich, aber notwendig, um die gesamte Versuchszeit auf ein Minimum zu beschränken; Beachten Sie, dass längere RTs unabhängig davon auf unendlich eingestellt werden.
  5. Trennen Sie die drei experimentellen Blöcke, indem Sie 20-s-Pausen in der Stimulus-Präsentationssoftware programmieren, um mögliche Ermüdungzuspotenziale zu reduzieren und die Konzentration zu erhöhen. Stellen Sie sicher, dass jeder nachfolgende Block unmittelbar nach dem Ende der 20-s-Pause gestartet wird.
  6. Programm schriftliche Anweisungen auf dem visuellen Display erscheinen (Monitor des experimentellen Computers). Die genauen Anweisungen sind im Zusatzmaterial angegeben. Bitten Sie den Teilnehmer, das Experiment zu starten, indem Sie das Antwortpad mit dem rechten Fuß drücken, wenn er bereit ist zu beginnen. Sobald die Stimulusparameter programmiert sind, erstellt die Stimulus-Präsentationssoftware ein Skript, das auf jedem Teilnehmer ausgeführt werden soll.
  7. Geben Sie die Teilnehmer-ID und die Sitzungsnummer an, um das experimentelle Skript auszuführen. Nach Abschluss des Experiments wird für jeden Teilnehmer ein eindeutiges Verhaltensdatenprotokoll erstellt (siehe Ergänzende Datei 2 für eine Eprime 2.0-Beispielausgabedatei).

3. Apparat & Aufgabe

  1. Lassen Sie die Teilnehmer aufrecht sitzen und sich bequem die Hände auf die linken und rechten Steuerkästen legen.
    1. Legen Sie strategisch zeigefinger über die Vibrationsmotoren, die an der Rückseite des Steuerkastens montiert sind, und Daumen auf der Vorderseite des Steuerkastens unter die LED, um das Licht nicht zu blockieren (siehe Abbildung 1).
    2. Stellen Sie sicher, dass die somatosensorischen Reize nicht hörbar sind, indem Sie den Teilnehmern Kopfhörer zur Verfügung stellen, über die kontinuierliches weißes Rauschen auf einem komfortablen Niveau abgespielt wird (in der Regel 65-75 dBs).
  2. Weisen Sie die Teilnehmer an, so schnell wie möglich auf alle Reize zu reagieren.
    1. Bitten Sie die Teilnehmer, ein Fußpedal unter dem rechten Fuß als Antwortpad zu verwenden, da die Finger eine somatosensorische Stimulation akzeptieren (siehe Abbildung 1).
  3. Berechnen Sie die Leistungsgenauigkeit nach Stimulusbedingung.
    1. Weisen Sie die Teilnehmer an, so schnell wie möglich auf jeden der experimentellen Reize (45 pro Zustand) zu reagieren.
    2. Teilen Sie die Anzahl der genau erkannten Reize pro Zustand über 45 (Gesamtanzahl der Versuche pro Bedingung), um Messgrößen für die Leistungsgenauigkeit für visuelle, somatosensorische und VS-Bedingungen zu erhalten.

4. Vorbereitung von Rassenmodell-Ungleichheitsdaten (individuelle Ebene)

  1. Bestimmen Sie, ob die Verhaltensleistung einer Person gültig ist.
    1. Teilnehmer ausschließen, die bei einer Reizbedingung keine Genauigkeit von 70 % korrigieren oder größer erreichen können, da die Leistungsgenauigkeit des Teilnehmers bei einer einfachen Reaktionszeitaufgabe abnimmt, ebenso die Zuverlässigkeit der Daten des Einzelnen.
    2. Betrachten Sie Versuche ungenau (ausgelassen), wenn ein Teilnehmer nicht auf einen Stimulus innerhalb des festgelegten Reaktionszeitraums reagiert und entsprechende RT auf unendlich setzt, anstatt die Studie von der Analyseauszuschließen 25,28.
      HINWEIS: In früheren Studien betrug die gruppengemittelte (n=289) Stimuluserkennung 96 % aller Bedingungen, und über 90 % der Bevölkerung wiesen Nachweisraten von über 90 % für alle Bedingungenauf 28.
    3. Verwenden Sie keine Verfahren zum Datentrimmen, die sehr langsame RTs löschen, da dies die Verteilung von RT-Daten verzerrt. 25 Stellen Sie sicher, dass RTs, die eindeutig Ausreißer sind, auf unendlich eingestellt sind. Siehe ergänzende Datei, die Änderungen an CDFs auf der Grundlage von Datenkürzungsverfahren und der Einbeziehung langsamer RTs darstellt (Ergänzende Datei 3).
  2. Organisieren Sie die RT-Daten.
    1. Sortieren Sie RT-Daten in aufsteigender Reihenfolge nach der experimentellen Bedingung. Platzieren Sie visuelle, somatosensorische und VS-Bedingungen in separaten Spalten mit sortierten RT-Daten. Stellen Sie sicher, dass jede Zeile eine Testversion darstellt und jede Zelle den tatsächlichen RT (oder unendlich im Falle von ausgelassenen oder langsamen Versuchen) darstellt.
  3. Bin die RT-Daten.
    1. Identifizieren Sie den schnellsten RT (je nach Bedingung - orange Ellipse) und den langsamsten RT (zu welcher Bedingung-roten Ellipse). Subtrahieren Sie den langsamsten RT vom schnellsten (z.B. 740 ms – 237 ms), um den RT-Bereich des Einzelnen (503ms; blaue Ellipse) über ALLE Testbedingungen zu berechnen. Tabelle 1 zeigt, wie der RT-Bereich einer Person berechnet wird, und zeigt die verschiedenen Farb-Elipsen.
    2. Bin RT-Daten von 0% (schnellsteRT = 237 in diesem Beispiel) bis zu den 100% (oder langsamsten RT = 740 in diesem Beispiel) in 5% Schritten, indem sie den schnellsten RT nehmen und schrittweise 5% des in 4.3.1 identifizierten RT-Bereichs hinzufügen, bis 100% der RT-Daten berücksichtigt werden (siehe Tabelle 2 ). Dies führt zu 21-fachen Behältern.
      HINWEIS: In Tabelle 2 - 1%ile ist nur zur Veranschaulichung im Arbeitsblatt enthalten.
  4. Berechnen Sie die kumulative Verteilungshäufigkeit (CDF) für die experimentellen Bedingungen.
    1. Verwenden Sie die Tabellenkalkulationssoftware, verwenden Sie eine "FREQUENCY"-Funktion, bei der Array1 den tatsächlichen RTs für eine der experimentellen Bedingungen entspricht und Array2 den 21 quantisierten RTs-Abschnitten entspricht, die in Schritt 4.3 berechnet wurden, geteilt durch die Gesamtzahl der Versuche (45) pro Bedingung. Dies ist in Abbildung 2a dargestellt.
    2. Wiederholen Sie diese Funktion für die beiden anderen Versuchsbedingungen (Abbildung 2b-2c), um Frequenzen (oder Wahrscheinlichkeit (P)) eines RT, der in jedem der 21 quantisierten Zeitabschnitte auftritt, für jede der drei versuchsbedingungen zu füllen.
    3. Erstellen Sie als Nächstes die kumulative Verteilungshäufigkeit (CDF), indem Sie die laufende Gesamtsumme der Wahrscheinlichkeiten über die quantisierten Abschnitte (0%, 0+5%, 0+5+10%, 0+5+10+15% usw.) für jede der drei experimentellen Bedingungen summieren. In der kumulativen Wahrscheinlichkeitsspalte für die Soma-Bedingung (Spalte AE) ist die kumulative Wahrscheinlichkeit für den 95%ile-Bereich (Zelle AE22) die Summe der Wahrscheinlichkeitswerte in den Zellen Z3:Z23 (siehe Abbildung 3).
  5. Tatsächliche vs. vorhergesagte CDFs.
    1. Stellen Sie sicher, dass die CDF der multisensorischen Bedingung die tatsächliche CDF darstellt (siehe Abbildung 4 Spalte AF und geplottete violette Ablaufverfolgung). Um die vorhergesagte CDF (SpaltenAG) zu berechnen, summieren Sie die beiden unisensorischen CDFs (mit einer Obergrenze auf 1) über jeden der 21 quantisierten Zeitabschnitte (siehe Abbildung 5). Beginnen Sie am 0. Perzentil (bin 1) und fahren Sie bis zum 100. Perzentil (bin 21) weiter.
  6. Führen Sie den Test der Race Model Inequality (RMI) durch.
    1. Subtrahieren Sie die vorhergesagte CDF (berechnet in 4.5.2.) von der tatsächlichen CDF für jeden der 21 quantisierten Zeitabschnitte, um die Differenzwerte zu erhalten (Spalte AH; siehe Abbildung 6).
    2. Zeichnen Sie diese 21 Werte als Liniendiagramm, wobei die x-Achse jeden der quantisierten Zeitabschnitte (Spalte AC) und die y-Achse die Wahrscheinlichkeitsdifferenz zwischen der tatsächlichen und der vorhergesagten CDFs (Spalte AH; Abbildung 7 (schwarze Spur).
    3. Überprüfen Sie bei jeder Latenz (d. h. Quantisaten) auf positive Werte, die auf die Integration der unisensorischen Reize hinweisen und eine Verletzung des RMI widerspiegeln (siehe den grün hervorgehobenen Teil der Differenzwelle von 0,00 – 0,10 in Abbildung 7).

5. Quantifizierung des Multisensorischen Effekts (Gruppenebene).

  1. Gruppendurchschnitt der einzelnen RMI-Daten (Unterschiede zwischen der vorhergesagten CDF und der tatsächlichen CDF für jeden der 21-fachen Abschnitte; Schritt 4.6.1- Spalte AH) über alle Teilnehmer hinweg. Verwenden Sie eine Tabellenkalkulationssoftware, um Personen Zeilen und Zeitabschnitten als Spalten zuzuweisen. Platzieren Sie in einer neuen Kalkulationstabelle die 21 in 4.6.1 berechneten Werte in einzelnen Zeilen (1 Zeile pro Teilnehmer) und Durchschnittswerte innerhalb von Zeitabschnitten, um eine gruppengemittelte Differenzwellenform zu erstellen.
  2. Zeichnen Sie den Gruppendurchschnitt 21 Werte als Liniendiagramm, wobei die x-Achse jeden der quantisierten Zeitabschnitte und die y-Achse die Wahrscheinlichkeitsdifferenz zwischen CDFs darstellt.
  3. Den verletzten Teil der gruppengemittelten Differenzwelle (d. h. positive Werte) visuell zu prüfen und zu dokumentieren.
  4. Führen Sie Gondans RMI-Permutationstest (R-Skript als kostenloser Download verfügbar)26 aus, um festzustellen, ob eine statistisch signifikante Verletzung des RMI über die in Schritt 5.3 identifizierten positiven Werte vorliegt.
    1. Organisieren Sie die Daten in einer Textdatei, in der die erste Spalte "Obs" für Observer heißt (z. B. Teilnehmer-ID), die zweite Spalte "Cond" für Stimulusbedingung (V, S oder VS) und die dritte Spalte heißt "RT" für tatsächliche RT oder "Inf", wenn auf unendlich festgelegt.
    2. Öffnen Sie die Software, identifizieren Sie, welche Zeitabschnitte getestet werden sollen (basierend auf den in 5.3 identifizierten positiven Zeitabschnitten), und geben Sie den in 5.4.1 erstellten Textdateinamen ein.
    3. Führen Sie den Test aus, indem Sie das Skript aufrufen. Die Ergebnisse liefern einen t-Max-Wert, ein 95%-Kriterium und einen p-Wert, der entscheidend dazu beitragen wird, ob eine signifikante Verletzung des Race-Modells in der gesamten Studienstichprobe vorliegt.
  5. Berechnen Sie die Fläche unter der Kurve (AUC) für jede Person, nachdem sie die deutlich verletzten Perzentilbehälter in Schritt 5.3 ermittelt hat. AUC wird als die Größe der multisensorischen Integration (oder der unabhängigen Variable) dienen. Um die Daten von Teilnehmer 1 zu berechnen, verwenden Sie für Perzentil-Bins 0,00 - 0,15, wie in Abbildung 8a-ddargestellt.
    1. Summieren Sie den CDF-Differenzwert zum Zeitpunkt abschnitt 1 (1. Mal positiver Wert) mit dem CDF-Differenzwert von Time bin 2 (nächster positiver Wert) und dividieren Sie dann durch zwei (siehe Abbildung 8a). Wiederholen Sie Schritt 5.3.1. für jedes aufeinander folgende Zeitkorbpaar mit positiven Werten (siehe Abbildung 8b-8c).
    2. Summiert die Ergebnisse aus den Schritten 5.5.1 - 5.5.2. um die gesamte AUC der CDF-Differenzwelle während des verletzten Perzentilbereichs zu erzeugen (z. B. 0,00 – 0,15 in Abbildung 8d).
      ANMERKUNG: AUC ist eine kontinuierliche Kennzahl, und für jeden einzelnen ist ein AUC-Wert für den verletzten Teil des RMI vorhanden (Abbildung8d rote Ellipse = Teilnehmer 1 AUC = 0,13). AUC kann als unabhängige Variable verwendet werden, die eine "Magnitude der VS-Integration" darstellt, die später getestet werden kann, um wichtige klinische Ergebnismaßnahmen vorherzusagen (siehe auch28,29).
  6. Weisen Sie multisensorische Integrationsklassifizierungsgruppen basierend auf der Anzahl der verletzten Perzentilabschnitte (Werte größer als Null, die in Tabelle 3grau hervorgehoben sind ) während des oben in Schritt 5.3 beschriebenen signifikant verletzten Perzentilbereichs zu. Blick auf Tabelle 3 (Perzentilbehälter 0,00 – 0,15): Teilnehmer 1 hat positive Werte für 2 von 4 Behältern; Teilnehmer 2 hat positive Werte für 4 von 4 Behältern; und Teilnehmer 3 hat positive Werte für 0 von 4 Behältern.
    1. Operationalisieren Sie ein Klassifizierungssystem basierend auf der Anzahl der verletzten Perzentil-Abschnitte (Werte größer als Null für 0, 1, 2 oder 3 Abschnitte) während des 0-10. Perzentils.
    2. Abbildung 9 zeigt eine mögliche Klassifizierungsdefinition, die an die kürzlich veröffentlichten Daten von Mahoney und Verghese29anpasst.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Ziel dieser Studie war es, ein schrittweises Tutorial eines methodischen Ansatzes zur Quantifizierung des Ausmaßes von VS-Integrationseffekten bereitzustellen, um die Veröffentlichung neuer multisensorischer Studien mit ähnlichen experimentellen Entwürfen und -setups zu fördern (siehe Abbildung 1 ). Screenshots der einzelnen Schritte und Berechnungen, die erforderlich sind, um die Größe multisensorischer Integrationseffekte abzuleiten, gemessen mit RMI AUC, sind oben abgegrenzt und in den Abbildungen 2-8dargestellt.

Abbildung 9 zeigt eine gruppengemittelte Verletzung (gestrichelte Spur), die über den Perzentilbereich von 0-10 % für eine Stichprobe von 333 älteren Erwachsenen auftritt (siehe auch29). Hier bestimmt die Gesamtzahl der positiven Werte (0, 1, 2 oder 3) für diese 3 Quantile (0,00 - 0,10), welche multisensorische Klassifikationsgruppe eine Person zugeteilt wird (mangelhaft, arm, gut oder überlegen).

Wie in Abbildung 9dargestellt, zeigen die gruppendurchschnittenden Ergebnisse eine signifikante Verletzung des Rennmodells gegenüber dem schnellsten Zehntel aller Antwortzeiten26. Während diese gruppengemittelte Differenzwellenform darauf hindeutet, dass ältere Erwachsene im Durchschnitt signifikante Verletzungen von Rassenmodellen aufweisen (d. h. multisensorische Integrationseffekte), argumentieren wir, dass dies nicht eine Einheitsgröße für alle Modelle ist. Vielmehr bietet die AUC des Einzelnen unter dem verletzten Zeitraum (0-10%ile) einen besseren Proxy für die Beurteilung des Umfangs der VS-Integration, da differenzielle Integrationsmuster 20-23, 28,29dokumentiert wurden. Einmal berechnet, kann die individuelle Größe der VS-Integration als kontinuierlicher Prädiktor für wichtige Ergebnisse in verschiedenen klinischen Populationen dienen.

Wir empfehlen die Implementierung eines Klassifizierungssystems, das möglicherweise auf der Anzahl der verletzten Perzentil-Bins (Werte größer als Null) während des gruppengemittelten RMI-Verletzungszeitraums basiert, um inhärente Differentialintegrationsmuster darzustellen. Die Klassifizierung der Daten auf diese Weise wird eine deutliche Verschlechterung der Verletzung von Rassenmodell durch multisensorische Integrationsklassifizierungsgruppe aufzeigen.

Figure 1
Abbildung 1: Versuchsgeräte. Mit einem Fußpedal unter dem rechten Fuß als Antwortpad wurden die Teilnehmer gebeten, so schnell wie möglich auf unisensorische und multisensorische Reize zu reagieren. Diese Zahl wurde mit der Berechtigung22,28,29nachgedruckt. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 2
Abbildung 2: Berechnung der Frequenz eines RT, der innerhalb eines bestimmten RT-Bereichs für jede Versuchsbedingung auftritt. a) Visuell (V); b) Somatosensorik (S); und c) Visuell-Somatosensorie (VS). Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 3
Abbildung 3: Erstellen der kumulativen Verteilungshäufigkeit für die Versuchsbedingungen. Diese Abbildung stellt die Summe der kumulativen Wahrscheinlichkeit am 95%ile bin für die Soma (S)-Bedingung dar. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 4
Abbildung 4: Plotten der tatsächlichen CDF (VS-Bedingung; violette Spur) als Funktion des Quantils. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 5
Abbildung 5: Berechnen der vorhergesagten CDF. Summiert die CDFs der beiden unisensorischen CDFs, wobei eine Obergrenze = 1 für jeden der Quantile von 0,00 bis 1,00 eingerechnet wird. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 6
Abbildung 6: Erstellen der Race Model Inequality (RMI). Subtrahieren Sie die CDF des vorhergesagten CDF von der tatsächlichen CDF für jedes Quantil. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 7
Abbildung 7: Zeichnen Sie die einzelnen RMI-Werte. Die x-Achse stellt jede der 21 Quantile (Spalte AC) und die y-Achse die Wahrscheinlichkeitsdifferenz zwischen CDFs (Spalte AH) dar. Der grün hervorgehobene Teil des RMI zeigt den positiven oder verletzten Teil der Wellenform, was auf eine multisensorische Integration hindeutet. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 8
Abbildung 8: Berechnung der Fläche unter der Kurve (AUC). a) Summieren Sie den CDF-Differenzwert bei Quantil 1 (0,00) mit dem CDF-Differenzwert von Quantil 2 (0,05) und dividieren Sie dann durch zwei, um ein Maß für AUC von 0,00 - 0,05 zu erstellen. b-c) Wiederholen Sie Schritt a) für jedes aufeinander folgende Paar von Quantilen (z. B. 0,05 - 0,10 und 0,10 - 0,15), um die AUC für jeden Quantilenbereich zu erreichen. d) Summiert die AUC für jeden Zeitlagerbereich, um die gesamte AUC für das gesamte in 5.3 identifizierte Zeitkorbfenster zu erhalten. Beachten Sie, dass dieses Beispiel einen größeren Quantilbereich (0,00 - 0,15) nur zur Veranschaulichung enthält. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 9
Abbildung 9: RassenmodellUngleichheit: Gesamt- und Gruppenklassifikation. Die gruppengemittelte Differenz zwischen tatsächlichen und vorhergesagten CDFs über die Flugbahn aller Quantile wird durch die gestrichelte Spur dargestellt. Die Volumenkörperspuren stellen jede der vier oben definierten multisensorischen Integrationsklassifikationen dar, die auf der Anzahl der verletzten Quantile-Bins basieren. Diese angepasste Figur wurde mit Genehmigung29nachgedruckt. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Ergänzende Datei 1: Beispiel Einfache Reaktionszeit Paradigma programmiert in Eprime 2.0. Bitte klicken Sie hier, um diese Datei herunterzuladen.

Ergänzende Datei 2: Beispiel RT Daten Verhaltensdaten Ausgabe von Eprime 2.0. Bitte klicken Sie hier, um diese Datei herunterzuladen.

Ergänzende Datei 3: Beispiel-RMI-Daten mit und ohne Ausreißer und ausgelassene Versuche. Bitte klicken Sie hier, um diese Datei herunterzuladen.

Tabelle 1. Individuelle Deskriptive Statistiken nach Zustand und Berechnung des RT-Bereichs. Bitte klicken Sie hier, um diese Datei herunterzuladen.

Tabelle 2. Beispiel für den Abschnitt" von RT-Daten basierend auf dem RT-Bereich. Bitte klicken Sie hier, um diese Datei herunterzuladen.

Tabelle 3. Beispiel für die AUC-Berechnung & Identifikation von , von verletzten Quantilen (grau schattierte Fläche). Bitte klicken Sie hier, um diese Datei herunterzuladen.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Ziel der aktuellen Studie war es, den Prozess hinter der Etablierung eines robusten multisensorischen Integrationsphänotyps zu beschreiben. Hier bieten wir die notwendigen und kritischen Schritte, die erforderlich sind, um multisensorische Integrationseffekte zu erzielen, die genutzt werden können, um wichtige kognitive und motorische Ergebnisse vorherzusagen, die auf ähnlichen neuronalen Schaltkreisen basieren. Unser übergeordnetes Ziel war es, ein Schritt-für-Schritt-Tutorial zur Berechnung des Umfangs der multisensorischen Integration bereitzustellen, um innovative und neuartige translationale multisensorische Studien über verschiedene klinische Populationen und Altersgruppen hinweg zu ermöglichen.

Wie oben erwähnt und von Gondan und Kollegen skizziert, ist es sehr wichtig, den RT-Datensatz25,28der Person zu erhalten. Das heißt, datenschneideVerfahren zu vermeiden, die sehr langsame RTs angesichts seiner inhärenten Verzerrung auf die RT-Verteilung weglassen; 25 stattdessen, setzen Sie ausgelassen und langsam E-Ungen auf unendlich. Dieser Schritt ist von entscheidender Bedeutung, und die Nichtbeachtung dieser einfachen Regeln führt zur Entwicklung ungenauer multisensorischer Integrationsergebnisse. Darüber hinaus sollten die Signifikanztests für Rassenmodelle nur über gruppendurchschnittierte verletzte Teile des RMI getestet werden, die in der Studienkohorte identifiziert wurden (d. h. nicht a priori spezifizierte Fenster).

In Bezug auf die Einschränkungen basierte das aktuelle experimentelle Design auf Daten von einer einfachen Reaktionszeitaufgabe bis hin zu bilateralen Reizen, die an der gleichen Stelle und genau zur gleichen Zeit präsentiert wurden. Wir erkennen an, dass mehrere Anpassungen an das aktuelle experimentelle Design abhängig von verschiedenen Hypothesen vorgenommen werden können, die Forscher untersuchen möchten. Wir nutzen diese Studie als Startrampe zur Dokumentation robuster MSI-Effekte im Alter, erkennen aber, dass die Umsetzung verschiedener experimenteller Anpassungen (z. B. verschiedene bi- und sogar trisensorische Kombinationen, unterschiedliche Stimulus-Präsentations-Startzeiten und unterschiedliche Größe der Stimulusintensität) wird eine Fülle von inkrementellen Informationen über dieses multisensorische Phänomen liefern.

Wir haben den oben genannten Ansatz implementiert, um signifikante Zusammenhänge zwischen dem Umfang der visuell-somatosensorischen Integration mit Gleichgewicht28 und Vorfall fällt28zu demonstrieren, wo ältere Erwachsene mit größerer multisensorischer Integration Fähigkeiten zeigen eine bessere Balance-Performance und weniger Vorfall fällt. In ähnlicher Weise zeigen wir, dass das Ausmaß der visuell-somatosensorischen Integration ein starker Prädiktor für räumliche Aspekte von Gang29war, bei dem Personen mit schlechterer visuell-somatosensorischer Integration eine langsamere Ganggeschwindigkeit, kürzere Schritte, und erhöhte doppelte Unterstützung. In Zukunft sollte diese Methode verwendet werden, um die Beziehung von MSI zu anderen wichtigen klinischen Ergebnissen wie dem kognitiven Status aufzudecken und bei der Identifizierung kritischer funktioneller und struktureller multisensorischer integrativer neuronaler Netzwerke im Alter zu helfen. und andere klinische Populationen.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Es gibt keine Interessenkonflikte zu berichten und die Autoren haben nichts zu verraten.

Acknowledgments

Die aktuelle Arbeit wird vom National Institute on Aging am National Institute of Health (K01AG049813 to JRM) unterstützt. Die zusätzliche Finanzierung erfolgte durch das Resnick Gerontology Center des Albert Einstein College of Medicine. Besonderer Dank geht an alle ehrenamtlichen Helfer und Forscher für die außergewöhnliche Unterstützung bei diesem Projekt.

Materials

Name Company Catalog Number Comments
stimulus generator Zenometrics, LLC; Peekskill, NY, USA n/a custom-built
Excel Microsoft Corporation spreadsheet program
Eprime Psychology Software Tools (PST) stimulus presentation software

DOWNLOAD MATERIALS LIST

References

  1. Foxe, J., et al. Auditory-somatosensory multisensory processing in auditory association cortex: an fMRI study. Journal of Neurophysiology. 88 (1), 540-543 (2002).
  2. Molholm, S., et al. Multisensory auditory-visual interactions during early sensory processing in humans: a high-density electrical mapping study. Brain Research: Cognitive Brain Research. 14 (1), 115-128 (2002).
  3. Murray, M. M., et al. Grabbing your ear: rapid auditory-somatosensory multisensory interactions in low-level sensory cortices are not constrained by stimulus alignment. Cerebral Cortex. 15 (7), 963-974 (2005).
  4. Molholm, S., et al. Audio-visual multisensory integration in superior parietal lobule revealed by human intracranial recordings. Journal of Neurophysiology. 96 (2), 721-729 (2006).
  5. Peiffer, A. M., Mozolic, J. L., Hugenschmidt, C. E., Laurienti, P. J. Age-related multisensory enhancement in a simple audiovisual detection task. Neuroreport. 18 (10), 1077-1081 (2007).
  6. Brandwein, A. B., et al. The development of audiovisual multisensory integration across childhood and early adolescence: a high-density electrical mapping study. Cerebral Cortex. 21 (5), 1042-1055 (2011).
  7. Girard, S., Collignon, O., Lepore, F. Multisensory gain within and across hemispaces in simple and choice reaction time paradigms. Experimental Brain Research. 214 (1), 1-8 (2011).
  8. Mahoney, J. R., Li, P. C., Oh-Park, M., Verghese, J., Holtzer, R. Multisensory integration across the senses in young and old adults. Brain Research. 1426, 43-53 (2011).
  9. Foxe, J. J., Ross, L. A., Molholm, S. Ch. 38. The New Handbook of Multisensory Processing. Stein, B. E. , The MIT Press. 691-706 (2012).
  10. Kinchla, R. Detecting target elements in multielement arrays: A confusability model. Perception and Psychophysics. 15, 149-158 (1974).
  11. Miller, J. Divided attention: Evidence for coactivation with redundant signals. Cognitive Psychology. 14 (2), 247-279 (1982).
  12. Eriksen, C. W., Goettl, B., St James, J. D., Fournier, L. R. Processing redundant signals: coactivation, divided attention, or what? Perception and Psychophysics. 45 (4), 356-370 (1989).
  13. Mordkoff, J. T., Yantis, S. An interactive race model of divided attention. Journal of Experimental Psychology: Human Perception and Performance. 17 (2), 520-538 (1991).
  14. Miller, J. Timecourse of coactivation in bimodal divided attention. Perception and Psychophysics. 40 (5), 331-343 (1986).
  15. Gondan, M., Lange, K., Rosler, F., Roder, B. The redundant target effect is affected by modality switch costs. Psychonomic Bulletin Review. 11 (2), 307-313 (2004).
  16. Colonius, H., Diederich, A. The race model inequality: interpreting a geometric measure of the amount of violation. Psychological Review. 113 (1), 148-154 (2006).
  17. Maris, G., Maris, E. Testing the race model inequality: A nonparametric approach. Journal of Mathematical Psychology. 47 (5-6), 507-514 (2003).
  18. Clark, J. J., Yuille, A. L. Data Fusion for Sensory Information Processing Systems. , Kluwer Academic. (1990).
  19. Ernst, M. O., Banks, M. S. Humans integrate visual and haptic information in a statistically optimal fashion. Nature. 415 (6870), 429-433 (2002).
  20. Mahoney, J. R., Verghese, J., Dumas, K., Wang, C., Holtzer, R. The effect of multisensory cues on attention in aging. Brain Research. 1472, 63-73 (2012).
  21. Mahoney, J. R., Holtzer, R., Verghese, J. Visual-somatosensory integration and balance: evidence for psychophysical integrative differences in aging. Multisensory Research. 27 (1), 17-42 (2014).
  22. Mahoney, J. R., Dumas, K., Holtzer, R. Visual-Somatosensory Integration is linked to Physical Activity Level in Older Adults. Multisensory Research. 28 (1-2), 11-29 (2015).
  23. Dumas, K., Holtzer, R., Mahoney, J. R. Visual-Somatosensory Integration in Older Adults: Links to Sensory Functioning. Multisensory Research. 29 (4-5), 397-420 (2016).
  24. Couth, S., Gowen, E., Poliakoff, E. Using race model violation to explore multisensory responses in older adults: Enhanced multisensory integration or slower unisensory processing. Multisensory Research. 31 (3-4), 151-174 (2017).
  25. Gondan, M., Minakata, K. A tutorial on testing the race model inequality. Attention, Perception & Psychophysics. 78 (3), 723-735 (2016).
  26. Gondan, M. A permutation test for the race model inequality. Behavior Research Methods. 42 (1), 23-28 (2010).
  27. Kiesel, A., Miller, J., Ulrich, R. Systematic biases and Type I error accumulation in tests of the race model inequality. Behavior Research Methods. 39 (3), 539-551 (2007).
  28. Mahoney, J., Cotton, K., Verghese, J. Multisensory Integration Predicts Balance and Falls in Older Adults. Journal of Gerontology: Medical Sciences. , Epub ahead of print (2018).
  29. Mahoney, J. R., Verghese, J. Visual-Somatosensory Integration and Quantitative Gait Performance in Aging. Frontiers in Aging Neuroscience. 10, 377 (2018).
  30. Yueh, B., et al. Long-term effectiveness of screening for hearing loss: the screening for auditory impairment--which hearing assessment test (SAI-WHAT) randomized trial. Journal of the American Geriatrics Society. 58 (3), 427-434 (2010).
  31. Galvin, J. E., et al. The AD8: a brief informant interview to detect dementia. Neurology. 65 (4), 559-564 (2005).
  32. Galvin, J. E., Roe, C. M., Xiong, C., Morris, J. C. Validity and reliability of the AD8 informant interview in dementia. Neurology. 67 (11), 1942-1948 (2006).
  33. Buschke, H., et al. Screening for dementia with the memory impairment screen. Neurology. 52 (2), 231-238 (1999).

Tags

Verhalten Problem 147 multisensorische Integration sensorimotorische Integration Race Model Inequality Redundant Signals Effect Alterung
Verwenden der Rassenmodellungleichheit zur Quantifizierung von verhaltens- multisensorischen Integrationseffekten
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Mahoney, J. R., Verghese, J. UsingMore

Mahoney, J. R., Verghese, J. Using the Race Model Inequality to Quantify Behavioral Multisensory Integration Effects. J. Vis. Exp. (147), e59575, doi:10.3791/59575 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter