Somatosensorischen Ereignis-korrelierte Potenziale von Orofaziale Haut Stretch Stimulation

1Haskins Laboratories, 2Speech and Cognition Department, Gipsa-lab, CNRS, 3Univ. Grenoble-Alpes, 4Department of Psychology, McGill University, 5School of Communication Science and Disorders, McGill University
Published 12/18/2015
0 Comments
  CITE THIS  SHARE 
Neuroscience

You must be subscribed to JoVE to access this content.

Fill out the form below to receive a free trial:

Welcome!

Enter your email below to get your free 10 minute trial to JoVE!





By clicking "Submit," you agree to our policies.

 

Summary

Cite this Article

Copy Citation

Ito, T., Ostry, D. J., Gracco, V. L. Somatosensory Event-related Potentials from Orofacial Skin Stretch Stimulation. J. Vis. Exp. (106), e53621, doi:10.3791/53621 (2015).

Please note that all translations are automatically generated through Google Translate.

Click here for the english version. For other languages click here.

Abstract

Introduction

Sprachproduktion hängt sowohl von auditiven und somatosensorischen Informationen. Die auditiven und somatosensorischen Feedback treten in Kombination von den ersten Laute von einem Säugling produziert und beide sind in der Rede motorischen Lernens beteiligt. Jüngste Ergebnisse deuten darauf hin, dass somatosensorische Prozesse tragen zur Wahrnehmung sowie Produktion. So klingt die Identifikation der Sprache verändert, wenn ein Roboter-Vorrichtung erstreckt sich die Gesichtshaut als Teilnehmer hören auf akustische Reize 1. Air Puffs an der Wange, die mit auditiven Sprachreizen überein verändern Wahrnehmungsurteile Teilnehmer 2.

Diese somatosensorischen Effekte beinhalten die Aktivierung von kutanen Mechanorezeptoren in Reaktion auf Hautverformung. Die Haut wird auf verschiedene Weisen während der Bewegung verformt und kutane Mechanoreceptoren führen bekanntlich zu kinästhetische Sinne 3,4 beizutragen. Der kinästhetische Rolle der kutanen Mechanorezeptoren ist demondurch die jüngsten Feststellungen 5-7, dass die Bewegung bedingte Hautstämme werden in geeigneter Weise, wie Beugung oder Streckung Bewegung je nach dem Muster der Haut Stretch 6 wahrgenommen strated. Im Laufe der Sprechmotorik Ausbildung, die die Wiederholung von bestimmten Sprachäußerung mit begleitender Gesichtshaut Dehnungs Rede ist, ändern Artikulationsmuster adaptiv 7. Diese Studien zeigen, dass die Modulation der Haut Stretch während der Aktion ist ein Verfahren zur Bewertung des Beitrags der kutanen Afferenzen auf die kinästhetische Funktion des sensomotorischen Systems.

Der kinästhetische Funktion der orofazialen kutanen Mechanorezeptoren wurde vor allem mit psychophysiologischen Methoden 7,8 und Mikroelektroden-Umkodierung von sensorischen Nerven 9,10 sucht. Hier konzentriert sich das aktuelle Protokoll auf der Kombination von orofazialen somatosensorischen Stimulation mit Gesichtshaut Verformung und ereignisbezogenen Potenzial (ERP) Aufnahme verbunden. Thist Vorgehensweise hat genaue experimentelle Kontrolle über die Richtung und den Zeitpunkt der Gesichtshaut Verformung mit Hilfe eines computergesteuerten Robotervorrichtung. Dies erlaubt uns, spezifische Hypothesen über die somatosensorischen Beitrag zur Sprachproduktion und Wahrnehmung durch selektive und präzise Verformungsgesichtshaut in einer Vielzahl von Orientierungen sowohl während der Rede motorischen Lernens zu testen und direkt bei der Sprachproduktion und Wahrnehmung. ERP Aufzeichnung werden zur nichtinvasiven Auswertung der zeitlichen Muster und Zeitpunkt der Einfluß der somatosensorischen Stimulation auf orofacial Verhaltensweisen. Das aktuelle Protokoll kann dann die neuronalen Korrelate der kinästhetische Funktion auszuwerten und zu bewerten den Beitrag des somatosensorischen Systems sowohl für Sprachverarbeitung, Sprachproduktion und Sprachwahrnehmung.

Um die Nützlichkeit der Anwendung von Hautdehnungs Stimulation ERP Aufnahme zeigen, konzentriert sich die folgende Protokoll auf der Wechselwirkung von somatosensorischen und auditive Eingabe in Rede perception. Die Ergebnisse zeigen eine potenzielle Methode zur somatosensorischen-auditive Interaktion in der Rede zu bewerten.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Die aktuelle experimentelle Protokoll folgt den Richtlinien für ethisches Verhalten nach der Yale University Menschenuntersuchungsausschuss.

1. Electroenchephalopgaphy (EEG) Herstellung

  1. Messen Sie die Kopfgröße, um die entsprechende EEG-Haube zu bestimmen.
  2. Identifizieren Sie die Lage der Scheitelpunkt von der Suche nach der Mitte zwischen Nasion und Inion mit einem Maßband.
  3. Legen Sie die EEG-Haube auf dem Kopf mit dem vorher festgelegten Scheitelpunkt als Cz. Untersuchen Cz wieder, nachdem Sie den Deckel, indem Sie ein Maßband wie in 1.2 getan. Man beachte, daß das EEG Kappe ist mit Elektrodenhalterungen ausgestattet ist, und die Platzierung der Elektroden 64 (oder Halter) auf einem modifizierten 10-20-System mit im Voraus festgelegten Koordinatensystem mit Cz 11 basiert.
    Hinweis: Diese repräsentative Anwendung eine 64-Elektroden-Konfiguration, um die Kopfhaut Verteilung Änderungen und zur Quellenanalyse. Für einfachere Anwendungen (ereignisbezogene möglichen Veränderungen in der Amplitude und Latenz) using weniger Elektroden sind möglich. Es gibt zwei zusätzliche Elektroden zum Boden in der hier verwendeten EEG-System. Diese Elektrodenhalter werden auch in der Kappe enthalten.
  4. Bewerben Elektroden-Gel in den Elektrodenhalter mit einer Einwegspritze.
  5. Befestigen EEG-Elektroden (einschließlich Masseelektroden) in den Elektroden Halter passend zu den Markierungen der Elektroden und der Elektrodenhalter auf der Elektrodenkappe.
  6. Reinigen Sie die Oberfläche der Haut mit Alkohol-Pads.
    Anmerkung: Für Elektroden zum Erfassen Augenbewegung (elektro Okulographie) sind die Haut Stellen oberhalb und unterhalb des rechten Auges (vertikale Augenbewegung) und lateral von der äußeren Augenwinkel der beiden Augen (horizontale Augenbewegung); für somatosensorische Stimulation die Haut seitlich der Mundwinkel wird gereinigt.
  7. Füllen Sie die vier elektro Okulographie Elektroden mit der Elektroden-Gel und sichern Sie die Elektroden mit doppelseitigem Klebeband auf die Standorte in 1.6 festgestellt.
  8. Sichern Sie alle Elektrodenkabel mit einem Klettverschluss. Wenn required, kleben Sie die Kabel an Körper Teilnehmers oder die anderen Standorte, die keine zusätzliche elektrische oder mechanische Rauschen einführen.
  9. Positionieren Sie den Teilnehmer vor dem Monitor und den Roboter zur somatosensorischen Stimulation. Sichern Sie alle Elektrodenkabel wieder wie in 1.8.
  10. Schließen Sie das EEG und elektro Okulographie Elektroden (einschließlich der Masseelektroden) in die entsprechenden Verbindungsstücke (passenden Etikett und connecter Form) am Verstärker Feld des EEG-Systems.
  11. Überprüfen Sie, dass die EEG-Signale artefaktfreie und dass der Offset-Wert in einem akzeptablen Bereich (<50 & mgr; V oder kleiner) ist sind. Wenn verrauschte Signale oder große Offsets, die normalerweise anzeigt hochohmig sind gefunden werden, diese richtige Elektrodensignale durch Hinzufügen zusätzlicher EEG-Gel und / oder Neupositionierung Haare, die direkt unter der Elektrode.
  12. Legen Sie die EEG-kompatible Kopfhörer und bestätigen, dass der Schallpegel in einem angenehmen Bereich basierend auf Thema Bericht.

Hinweis: Die aktuelle Protokoll gilt Gesichtshaut Dehnungs zum Zwecke der somatosensorische Stimulation. Der Versuchsaufbau mit der EEG-System ist in Figur 1 dargestellt ist. Die Einzelheiten der somatosensorischen Stimulationsvorrichtung sind in den früheren Studien 1,7,12-14 beschrieben. Kurz gesagt, werden zwei kleine Plastiklaschen (2 cm breite und 3 cm Höhe) mit doppelseitigem Klebeband auf die Gesichtshaut befestigt. Die Registerkarten werden in der Robotereinrichtung verbunden mit String. Der Roboter generiert systematische Hautdehnungsbelastungen nach experimentellen Designs. Das Setup-Protokoll für die ERP-Aufnahme ist wie folgt:

  1. Legen Sie den Kopf des Teilnehmers in der Kopfstütze, um die Kopfbewegung während der Stimulation zu minimieren. Entfernen Sie vorsichtig die Elektrodenkabel zwischen Kopf und Kopfstütze des Teilnehmers.
  2. Bitten Sie die Teilnehmer, um den Sicherheitsschalter für den Roboter zu halten.
  3. Befestigen Sie den Kunststofflaschendie Zielhautstelle mit doppelseitigem Klebeband für somatosensorische Stimulation. Für die repräsentative Ergebnisse 12,13, bei dem das Ziel ist die Haut lateral der Mundwinkel, mit der Mitte der Laschen an der Schneckenachse, wenige mm seitlich der Mundwinkel in der Mitte der Laschen etwa in der gleichen Höhe der Mundwinkel.
  4. Einstellen der Konfiguration der Schnur, Bindfaden Stützen und des Roboters, um EEG-Elektroden und Leitungen zu vermeiden.
  5. Geben Sie einige Gesichtshaut Strecken (ein Zyklus Sinuskurve bei 3 Hz mit einer maximalen Kraft von 4 N), um Artefakte zu überprüfen aufgrund der Stimulation (in der Regel als relativ große Amplitude und niedrigere Frequenz beobachtet, verglichen mit der elektrophysiologischen Antwort). Wenn Artefakte in den EEG-Signale beobachtet, gehen Sie zurück auf 2,4.

3. ERP-Recording

  1. Erläutern Sie die experimentelle Aufgabe, das Thema und bieten Praxis-Studien (ein Block = 10 Studien oder weniger), um zu bestätigen, wenn das Thema understands die Aufgabe klar.
    Hinweis: Die experimentelle Aufgabe und Reizdarbietung für ERP Aufnahme sind vorprogrammiert in Software für die Reizdarbietung.
    1. In der repräsentativen Test mit kombinierten somatosensorischen und auditive Stimulation 12, gelten die somatosensorische Stimulation mit Hautverformung in die Mundwinkel zugeordnet ist, um die Haut lateral. Das Muster der Strecke ist ein ein Zyklus Sinuskurve (3 Hz) mit einer maximalen Kraft von 4 N. Eine einzelne synthetisierte Sprachäußerung, die auf halber Strecke befindet sich in einem 10-Schritt-Sound Kontinuum zwischen "Kopf" und "war" ist für Gehörstimulation eingesetzt.
    2. Präsentieren sowohl Stimulationen einzeln oder in Kombination. In der kombinierten Stimulation, Test drei Einsetzen Zeiten (90 ms Blei und Verzögerung, und gleichzeitiges in somatosensorischen und auditive Onsets: siehe 3A).
    3. Randomize die Präsentation von fünf Stimulierungen (somatosensorische allein, auditive allein und drei kombinierten:. Blei, simult und lag). Variieren Sie die inter-trial-Intervall zwischen 1000 und 2000 ms, um die Vorfreude und Gewöhnung zu vermeiden. Die experimentelle Aufgabe ist es, durch Drücken einer Taste auf einer Tastatur zu identifizieren, ob die vorgelegten Sprachklang, die der Ton, der akustisch in der Mitte zwischen "Kopf" ist und "musste", war "Kopf". In der somatosensorischen allein Zustand, in dem es keine Hörstimulation, die Teilnehmer sind angewiesen, nicht "Kopf" zu beantworten.
    4. Rekordteilnehmer Urteilen und die Reaktionszeit vom Beginn des Stimulus an den Tastendruck mit der Software für die Reizdarbietung. Bitten Sie die Teilnehmer, um einen Befestigungspunkt auf dem Bildschirm, um Artefakte aufgrund von Augenbewegungen zu reduzieren bestaunen.
    5. Entfernen Sie den Befestigungspunkt alle 10 Stimulationen für einen Kurzurlaub. (Siehe auch die anderen Beispiel der Aufgabe und Reizdarbietung 12,13)
  2. Starten Sie die Software für ERP Aufnahme bei 512 HzProbenahme, die auch zeichnet die Anfangszeit der Stimulation in der Timeline von ERP-Daten. Beachten Sie, dass die Zeitstempel der Stimulation, die auch die Information über die Art der Stimulation, werden für jeden Stimulus von der Software für die Stimuluspräsentation gesendet. Die beiden Programme (ERP Aufnahme und für die Reizdarbietung) auf zwei getrennten PCs, die über einen Parallelanschluss verbunden sind aktiv.
  3. Legen Sie die Software für den somatosensorischen Stimulation auf den Trigger-Wartemodus und starten Sie dann Reizdarbietung durch die Aktivierung der Software für die Reizdarbietung. Beachten Sie, dass die Software für den somatosensorischen Stimulation auch auf einem separaten PC laufen von den beiden anderen PCs. Nehmen Sie 100 ERPs pro Bedingung.
    Hinweis: Ein Triggersignal für den somatosensorischen Stimulation über eine analoge Eingabevorrichtung, die an ein digitales Ausgabegerät im PC für sensorische Stimulation verbunden wird empfangen. Einzel somatosensorischen Stimulation pro Trigger produziert. </ li>

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Dieser Abschnitt stellt repräsentative Ereignis-korrelierte Potenziale in Reaktion auf somatosensorische Stimulation von Gesichtshaut Verformung resultieren. Der experimentelle Aufbau ist in Abbildung 1 dargestellt. Sinusoidal Stimulierung wurde auf die Gesichtshaut seitlich der Mundwinkel (siehe 3A als Referenz) aufgetragen. Einhundert Dehnungsversuche wurden für jeden Teilnehmer mit 12 Teilnehmern in insgesamt getestet aufgezeichnet. Nach dem Entfernen der Studien mit blinkt und Augenbewegungsartefakte offline auf der Basis der horizontalen und vertikalen elektro Okulographie Signale (über ± 150 & mgr; V), mehr als 85% der Versuche wurden gemittelt. EEG-Signale wurden mit einem 0,5 bis 50 Hz Bandpassfilters gefiltert und dem Durchschnittswert für alle Elektroden erneut referenziert. 2 zeigt die durchschnittliche somatosensorischen ERP von ausgewählten repräsentativen Elektroden. In frontalen Regionen, wurden negative Spitzenpotentiale bei 100-200 ms po induziertest Reizbeginn von einem positiven Potential bei 200-300 ms gefolgt. Die größte Reaktion wurde in der Mittellinie Elektroden beobachtet. Anders als die früheren Studien mit somatosensorischen ERP 15-18, gibt es keine früheren Latenz (<100 ms) Potentiale. Dieses zeitliche Muster ist ziemlich ähnlich wie die typischen N1-P2-Sequenz folgenden Hörstimulation 19. Im Vergleich zwischen dem entsprechenden Paar von Elektroden in der linken und rechten Hemisphäre ist die zeitliche Muster sehr ähnlich wahrscheinlich aufgrund der bilateralen Stimulation.

Abbildung 1
Abbildung 1. Versuchsaufbau. Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen.

Figur 2
Abbildung 2. ereigniskorrelierte Potenziale inReaktion auf die durch die Gesichtshaut Dehnungs hergestellt somatosensorischen Stimulation. Die ERPs wurden aus repräsentativen Elektroden erhalten. Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen.

Das erste Ergebnis zeigt, wie der Zeitpunkt der Stimulation beeinflusst multisensorische Interaktion während der Sprachverarbeitung 12. In dieser Studie wurden die Nervenreaktion Wechselwirkungen durch den Vergleich ERPs mit somatosensorischen-auditorischen Reizes paarweise mit der algebraischen Summe der ERPs zu den unisensory Reize gesondert dargestellt erhalten gefunden. Das Muster der auditiv-somatosensorische Reize sind in 3A dargestellt. 3B zeigt das Muster der Ereignis-korrelierte Potenziale in Reaktion auf somatosensorische-auditorischen Reizes Paare (rote Linie). Die schwarze Linie Vertrets die Summe der Einzel unisensory auditiven und somatosensorischen ERPs. Die drei Platten entsprechen der Zeitverzögerung zwischen zwei Konjunktur Onsets: 90 msec Führung des somatosensorischen Beginn (links), gleichzeitige (Zentrum) und 90 ms lag (rechts). Wenn somatosensorischen Stimulation wurde 90 ms vor dem Gehör Einsetzen dargestellt, gibt es einen Unterschied zwischen gepaarten und summiert Reaktionen (die links in der Figur 3B). Dieses Zusammenwirkung mit der Zeit als eine Funktion der Zeitverzögerung zwischen der somatosensorischen und akustischen Eingänge verringert (siehe die Änderung zwischen den beiden gestrichelten Linien in Figur 3B). Die Ergebnisse zeigen, dass der somatosensorischen-akustischen Inter dynamisch mit dem Zeitpunkt der Anregung modifiziert.

Figur 3

Abbildung 3. Ereignis-korrelierte Potenziale spiegeln eine somatosensorischen-Gehör Interaction im Rahmen der Sprachwahrnehmung. Diese Abbildung wurde von Ito modifiziert worden, et al. 12 (A) zeitliche Muster des somatosensorischen und auditive Reize. (B) Ereignis-korrelierte Potenziale für kombinierte somatosensorischen und auditive Stimulation in drei Zeitbedingungen (Blei, gleichzeitige und lag) an der Elektrode Pz. Die rote Linie stellt zeichneten Antworten auf gepaart ERPs. Die gestrichelte Linie ist die Summe der somatosensorischen und auditive ERPs. Die vertikalen gestrichelten Linien definieren Sie ein Intervall von 160 bis 220 ms nach somatosensorischen Einsetzen in denen Unterschiede zwischen "Paar" und "Summe" Reaktionen werden bewertet. Pfeile stellen Gehör Beginn. Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen.

Das nächste Ergebnis zeigt, daß die Amplitude der somatosensorischen ERP Increases in Antwort auf das Hören Sprach 13. Das Muster der somatosensorischen Stimulation ist die gleiche wie oben erwähnt. Figur 4 zeigt somatosensorischen ERP, die in die Offline-Analyse in die Kopfhaut Stromdichte 20 umgewandelt werden, an den Elektroden (FC3, FC5, C3) über den linken sensomotorischen Bereich. Somatosensorischen Ereignis-korrelierte Potenziale wurden aufgezeichnet, während die Teilnehmer hören Rede in Anwesenheit von kontinuierlichen Hintergrundgeräusche. Untersucht wurden vier Hintergrundbedingungen: Rede, nicht-Sprachlaute, Pink-Noise und leise 13. Die Ergebnisse zeigen die Amplitude der somatosensorischen Ereignis-korrelierte Potenziale beim Hören auf Sprachlaute war signifikant höher als die anderen drei Bedingungen. Es gab keinen signifikanten Unterschied in der Amplitude für die drei anderen Bedingungen. 4B zeigt normalisierten Peakamplituden in den unterschiedlichen Bedingungen. Das Ergebnis zeigt, dass das Hören von Sprachlauten verändert die somatosensorische Verarbeitung associ ated mit Gesichtshaut Verformung.

Figur 4
Abbildung 4. Verbesserung der somatosensorischen Ereignis-korrelierte Potenziale aufgrund von Sprachlauten. Die ERPs wurden unter vier Hintergrund-Sound Bedingungen (Stille, Rosa Rauschen, Sprache und Nicht-Sprache) aufgezeichnet. Diese Abbildung wurde von Ito et al modifiziert worden ist. 13 (A) Die zeitliche Muster der somatosensorischen Ereignis-korrelierte Potenziale im Bereich oberhalb linken Motor und prämotorischen Kortex. Jede Farbe entspricht einer anderen Hintergrundschall Zustand. Die ERPs umgewandelt wurden, um die Stromdichte 20 Kopfhaut. (B) Unterschiede in der Z-Score Größen mit dem ersten Höhepunkt des somatosensorischen ERPs verbunden. Fehlerbalken sind Standardfehler für die Teilnehmer. Jede Farbe entspricht verschiedenen Hintergrundsound Bedingungen wie in Panel-A.com / files / ftp_upload / 53.621 / 53621fig4large.jpg "target =" _ blank "> Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Die hier ausgewiesenen Studien belegen, die präzise gesteuert somatosensorischen Stimulation, die durch die Gesichtshaut Verformung erzeugt wird, induziert kortikalen ERPs. Kutanen Afferenzen werden als eine reiche Quelle von kinästhetische Informations 3,4 in der menschlichen Bewegung des Körpers 5,6 und Sprachbewegung 7,8,21 bekannt. Dehnen der Gesichtshaut in der Weise, dass die tatsächliche Bewegungsrichtung während des Sprechens reflektiert induziert eine kinästhetische Sinne ähnlich der entsprechenden Bewegung. Die aktuelle Methode kombiniert präzise gesteuert Haut dehnen und ERP-Aufnahmen verwendet werden, um die neuronalen Grundlagen des orofazialen Funktion während einer Vielzahl von Sprachverhalten zu untersuchen.

Mit mechanischen Stimulation und simultane EEG-Aufzeichnung ist es wichtig, die laufenden Signale für Artefakt zu überwachen. Insbesondere, da die Schnüre verwendet, um die Haut in der Nähe der EEG-Elektroden und Leitungen zu dehnen, besteht die Möglichkeit eines elektrischenAl und Bewegungsartefakten in den EEG-Signale induziert. Dieses Artefakt ist wegen der relativ großen Amplitude und unteren Frequenz unterscheidbar verglichen mit der elektrophysiologischen Antwort. Vor der Aufnahme der Stimulations Setup einschließlich der String-Konfiguration muss sorgfältig geprüft, um zu erkennen und zu beseitigen alle mechanischen Artefakten aufgrund der Stimulation werden. Obwohl Artefakte können per Post Signalverarbeitung, wie Filtern oder unabhängige Komponentenanalyse 22 ähnlich wie Augenbewegungen und blinkt entfernt werden, sind sauberer Signale immer wünschenswerter.

Die bisherigen Untersuchungen der somatosensorischen Ereignis-korrelierte Potenziale haben meist verwendet kurze somatosensorische Reize, die mit mechanischen 23, 18 elektrischen oder Laser nozizeptive Stimulation 15 hergestellt wurden. Somatosensorischen Eingänge aus diesen Arten von Stimulation nicht mit einem bestimmten Artikulationsbewegung in der Sprachausgabe, und sie können daher nichtgeeignet für die Untersuchung von sprachbezogenen kortikale Verarbeitung. Möttönen, et al. 17 habe es versäumt, eine Änderung der magnetoenchalographic somatosensorischen Potentiale mit einfachen Lippen Klopfen während Hören von Sprachlauten zu zeigen. Im Gegensatz dazu stellt eine Verformung der Gesichtshaut kinästhetische Eingang ähnlich ist, das in Verbindung mit Sprach artikulatorische Bewegung 21 und sensomotorischen Adaption 7 auftritt. Diese Stimuli auch mit Sprachwahrnehmungsverarbeitung 1,14 interagieren. Die somatosensorischen ERP aus der aktuellen Hautdehnungsstörung ist besser geeignet für die Untersuchung von sprachbezogenen kortikale Verarbeitung als die anderen Methoden derzeit somatosensorischen Stimulation zur Verfügung. Mehrere verschiedene Eigenschaften wurden zwischen dem aktuellen Hautdehnungs Stimulation und den bisherigen Verfahren gefunden. Weitere Untersuchungen, einschließlich der Quellpfad ist erforderlich.

Obwohl Verformung der Gesichtshaut auftritt to unterschiedlichem Ausmaß während der Sprachwächter 8, die Haut lateral der Mundwinkel ist dicht mit kutanen Mechanoreceptoren 10,24 innerviert und kann vor allem für den Nachweis von Hautausdehnung während der Sprach verantwortlich sein. Die Haut an den Ecken des Mundes kann besonders wichtig für die Sprechmotorik und Sprache motorischen Lernens sein. Die derzeitige Vorgehensweise ist etwas begrenzt, weil die Dehnung der Haut kann nur in einer Richtung und an einer Stelle pro EEG-Sitzung erfolgen. Verwendung eines komplexeren Hautverformung und Auswerten mehreren Richtungen und / oder verschiedenen Orten in einem EEG Sitzung wird weitere Einsicht in die spezifische Rolle der somatosensation in Sprachverarbeitung.

Es gibt seit langem Interesse an Sprachkommunikation Studien über die Art der Darstellung und Verarbeitung in der Sprachproduktion und Wahrnehmung 25-27. Die Entdeckung der Spiegelneuronen 28,29 verstärkt die Idee, dass Motor Spaßctions werden in Sprachwahrnehmung beteiligt. Die Einbindung des motorischen Systems (oder des Motors und premotor cortex) wurde ebenfalls untersucht 30-35 in der Wahrnehmung von Sprachlauten. Dennoch ist die Verbindung zwischen der Sprachproduktion und Wahrnehmung noch weitgehend unverstanden. Exploring möglich somatosensorischen Einflüsse auf Sprachwahrnehmung kann uns helfen zu verstehen, die neuronalen Grundlagen der Sprachwahrnehmung und Produktion, und ob sie sich überlappen oder einen Link. Die aktuelle Technik zur Modulation somatosensorischen Funktion hat ein neues Werkzeug, um diesen wichtigen Bereich der Forschung zu untersuchen ist. Die aktuelle Technik hat den zusätzlichen Vorteil, dass sie bei den Ermittlungen des somatosensorischen Funktion allgemein verwendet werden und wie sie mit anderen Sinnesmodalitäten in neuronalen Verarbeitungsinteragiert.

Subscription Required. Please recommend JoVE to your librarian.

Acknowledgements

Diese Arbeit wurde vom National Institute on Taubheit und andere Communication Disorders Grants R21DC013915 und R01DC012502, die Natur- und Ingenieurwissenschaften Research Council of Canada und der Europäische Forschungsrat des Siebten Rahmenprogramms der Europäischen Gemeinschaft (FP7 / 2007-2013 Finanzhilfevereinbarung Nr 339.152 unterstützt. ).

Materials

Name Company Catalog Number Comments
EEG recording system Biosemi ActiveTwo
Robotic decice for skin stretch Geomagic Phantom Premium 1.0
EEG-compatible earphones Etymotic research ER3A
Software for visual and auditory stimulation Neurobehavioral Systems Presentation
Electrode gel Parker Laboratories, INC Signa gel
Double sided tape 3M 1522
Disposable syringe Monoject 412 Curved Tip
Analog input device National Instuments  PCI-6036E
Degital output device Measurement computing USB-1208FS

DOWNLOAD MATERIALS LIST

References

  1. Ito, T., Tiede, M., Ostry, D. J. Somatosensory function in speech perception. Proc Natl Acad Sci U S A. 106, 1245-1248 (2009).
  2. Gick, B., Derrick, D. Aero-tactile integration in speech perception. Nature. 462, 502-504 (2009).
  3. McCloskey, D. I. Kinesthetic sensibility. Physiol Rev. 58, 763-820 (1978).
  4. Proske, U., Gandevia, S. C. The kinaesthetic senses. J Physiol. 587, 4139-4146 (2009).
  5. Collins, D. F., Prochazka, A. Movement illusions evoked by ensemble cutaneous input from the dorsum of the human hand. J Physiol. 496, (Pt 3), 857-871 (1996).
  6. Edin, B. B., Johansson, N. Skin strain patterns provide kinaesthetic information to the human central nervous system. J Physiol. 487, (Pt 1), 243-251 (1995).
  7. Ito, T., Ostry, D. J. Somatosensory contribution to motor learning due to facial skin deformation. J Neurophysiol. 104, 1230-1238 (2010).
  8. Connor, N. P., Abbs, J. H. Movement-related skin strain associated with goal-oriented lip actions. Exp Brain Res. 123, 235-241 (1998).
  9. Johansson, R. S., Trulsson, M., Olsson, K. Â, Abbs, J. H. Mechanoreceptive afferent activity in the infraorbital nerve in man during speech and chewing movements. Exp Brain Res. 72, 209-214 (1988).
  10. Nordin, M., Hagbarth, K. E. Mechanoreceptive units in the human infra-orbital nerve. Acta Physiol Scand. 135, 149-161 (1989).
  11. Guideline thirteen: guidelines for standard electrode position nomenclature. American Electroencephalographic Society. Journal of clinical neurophysiology : official publication of the American Electroencephalographic Society. 11, 111-113 (1994).
  12. Ito, T., Gracco, V. L., Ostry, D. J. Temporal factors affecting somatosensory-auditory interactions in speech processing. Frontiers in psychology. 5, 1198 (2014).
  13. Ito, T., Johns, A. R., Ostry, D. J. Left lateralized enhancement of orofacial somatosensory processing due to speech sounds. J Speech Lang Hear Res. 56, S1875-S1881 (2013).
  14. Ito, T., Ostry, D. J. Speech sounds alter facial skin sensation. J Neurophysiol. 107, 442-447 (2012).
  15. Kenton, B., et al. Peripheral fiber correlates to noxious thermal stimulation in humans. Neuroscience letters. 17, 301-306 (1980).
  16. Larson, C. R., Folkins, J. W., McClean, M. D., Muller, E. M. Sensitivity of the human perioral reflex to parameters of mechanical stretch. Brain Res. 146, 159-164 (1978).
  17. Möttönen, R., Järveläinen, J., Sams, M., Hari, R. Viewing speech modulates activity in the left SI mouth cortex. Neuroimage. 24, 731-737 (2005).
  18. Soustiel, J. F., Feinsod, M., Hafner, H. Short latency trigeminal evoked potentials: normative data and clinical correlations. Electroencephalogr Clin Neurophysiol. 80, 119-125 (1991).
  19. Martin, B. A., Tremblay, K. L., Korczak, P. Speech evoked potentials: from the laboratory to the clinic. Ear and hearing. 29, 285-313 (2008).
  20. Perrin, F., Bertrand, O., Pernier, J. Scalp current density mapping: value and estimation from potential data. IEEE Trans Biomed Eng. 34, 283-288 (1987).
  21. Ito, T., Gomi, H. Cutaneous mechanoreceptors contribute to the generation of a cortical reflex in speech. Neuroreport. 18, 907-910 (2007).
  22. Onton, J., Westerfield, M., Townsend, J., Makeig, S. Imaging human EEG dynamics using independent component analysis. Neurosci Biobehav Rev. 30, 808-822 (2006).
  23. Larsson, L. E., Prevec, T. S. Somato-sensory response to mechanical stimulation as recorded in the human EEG. Electroencephalogr Clin Neurophysiol. 28, 162-172 (1970).
  24. Johansson, R. S., Trulsson, M., Olsson, K. Â, Westberg, K. G. Mechanoreceptor activity from the human face and oral mucosa. Exp Brain Res. 72, 204-208 (1988).
  25. Diehl, R. L., Lotto, A. J., Holt, L. L. Speech perception. Annu Rev Psychol. 55, 149-179 (2004).
  26. Liberman, A. M., Mattingly, I. G. The motor theory of speech perception revised. Cognition. 21, 1-36 (1985).
  27. Schwartz, J. L., Basirat, A., Menard, L., Sato, M. The Perception-for-Action-Control Theory (PACT): A perceptuo-motor theory of speech perception. J Neurolinguist. 25, 336-354 (2012).
  28. Rizzolatti, G., Craighero, L. The mirror-neuron system. Annu Rev Neurosci. 27, 169-192 (2004).
  29. Rizzolatti, G., Fabbri-Destro, M. The mirror system and its role in social cognition. Curr Opin Neurobiol. 18, 179-184 (2008).
  30. D'Ausilio, A., et al. The motor somatotopy of speech perception. Curr Biol. 19, 381-385 (2009).
  31. Fadiga, L., Craighero, L., Buccino, G., Rizzolatti, G. Speech listening specifically modulates the excitability of tongue muscles: a TMS study. Eur J Neurosci. 15, 399-402 (2002).
  32. Meister, I. G., Wilson, S. M., Deblieck, C., Wu, A. D., Iacoboni, M. The essential role of premotor cortex in speech perception. Curr Biol. 17, 1692-1696 (2007).
  33. Möttönen, R., Watkins, K. E. Motor representations of articulators contribute to categorical perception of speech sounds. J Neurosci. 29, 9819-9825 (2009).
  34. Watkins, K. E., Strafella, A. P., Paus, T. Seeing and hearing speech excites the motor system involved in speech production. Neuropsychologia. 41, 989-994 (2003).
  35. Wilson, S. M., Saygin, A. P., Sereno, M. I., Iacoboni, M. Listening to speech activates motor areas involved in speech production. Nat Neurosci. 7, 701-702 (2004).

Comments

0 Comments


    Post a Question / Comment / Request

    You must be signed in to post a comment. Please or create an account.

    Video Stats