Potenciales evocados somatosensoriales de piel Stretch Estimulación Orofacial

1Haskins Laboratories, 2Speech and Cognition Department, Gipsa-lab, CNRS, 3Univ. Grenoble-Alpes, 4Department of Psychology, McGill University, 5School of Communication Science and Disorders, McGill University
Published 12/18/2015
0 Comments
  CITE THIS  SHARE 
Neuroscience

You must be subscribed to JoVE to access this content.

Fill out the form below to receive a free trial:

Welcome!

Enter your email below to get your free 10 minute trial to JoVE!





By clicking "Submit," you agree to our policies.

 

Summary

Cite this Article

Copy Citation

Ito, T., Ostry, D. J., Gracco, V. L. Somatosensory Event-related Potentials from Orofacial Skin Stretch Stimulation. J. Vis. Exp. (106), e53621, doi:10.3791/53621 (2015).

Please note that all translations are automatically generated through Google Translate.

Click here for the english version. For other languages click here.

Abstract

Introduction

La producción del habla depende tanto de la información auditiva y somatosensorial. El auditiva y retroalimentación somatosensorial ocurren en combinación desde las primeras vocalizaciones producidas por un bebé y ambos están implicados en el aprendizaje motor del habla. Los resultados recientes sugieren que los procesos somatosensoriales contribuyen a la percepción, así como de producción. Por ejemplo, la identificación de los sonidos del habla se altera cuando un dispositivo robótico estira la piel facial como participantes escuchan a los estímulos auditivos 1. Bocanadas de aire a la mejilla que coinciden con los estímulos del habla auditivas alteran juicios perceptivos 2 participantes.

Estos efectos somatosensoriales implican la activación de los mecanorreceptores cutáneos en respuesta a la deformación de la piel. La piel se deforma de varias maneras durante el movimiento, y los mecanorreceptores cutáneos se sabe que contribuyen a 3,4 sentido cinestésico. El papel cinestésica de mecanorreceptores cutáneos es demoniotrado por los recientes hallazgos 5-7 que las cepas de la piel relacionadas con el movimiento se perciben apropiadamente como la flexión o movimiento de extensión en función del patrón de estiramiento de la piel 6. En el transcurso de la capacitación motor del habla, que es la repetición de emisión de habla específico con el habla de estiramiento de la piel facial concomitante, los patrones articulatorios cambian de manera adaptativa 7. Estos estudios indican que la modulación de estiramiento de la piel durante la acción proporciona un método para evaluar la contribución de los aferentes cutáneos a la función cinestésica del sistema sensoriomotor.

La función cinestésica de mecanorreceptores cutáneos orofaciales se ha estudiado sobre todo utilizando métodos psicofisiológicos 7,8 y microelectrodos recodificación de los nervios sensoriales 9,10. Aquí, el protocolo actual se centra en la combinación de la estimulación somatosensorial orofacial asociado con deformación de la piel facial y el potencial (ERP) de grabación de eventos relacionados. Thes el procedimiento tiene control experimental preciso sobre la dirección y el momento de deformación de la piel facial utilizando un dispositivo robótico controlado por ordenador. Esto nos permite probar hipótesis específicas sobre la contribución somatosensorial de la producción del habla y la percepción de forma selectiva y precisa deformar la piel del rostro en una amplia gama de orientaciones, tanto durante el aprendizaje motor del habla y directamente en la producción del habla y la percepción. Grabación de ERP se utilizan para evaluar de forma no invasiva el patrón temporal y el momento de la influencia de la estimulación somatosensorial en los comportamientos orofaciales. El protocolo actual puede entonces evaluar los correlatos neurales de la función cinestésica y evaluar la contribución del sistema somatosensorial tanto a la percepción de procesamiento de voz, la producción del habla y el lenguaje.

Para mostrar la utilidad de la aplicación de la estimulación estiramiento de la piel a la grabación ERP, el siguiente protocolo se centra en la interacción de somatosensorial y auditiva en el habla de entrada perception. Los resultados ponen de manifiesto un posible método para evaluar la interacción somatosensorial auditiva en el habla.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

El protocolo experimental actual sigue las pautas de conducta ética de acuerdo con el Comité de Investigación Humana de la Universidad de Yale.

1. Electroenchephalopgaphy (EEG) Preparación

  1. Medir el tamaño de la cabeza para determinar la tapa de EEG apropiado.
  2. Identificar la ubicación del vértice al encontrar el punto medio entre nasión y inion con una cinta métrica.
  3. Coloque la tapa de EEG en la cabeza usando el vértice predeterminado como Cz. Examine Cz de nuevo después de la colocación de la tapa utilizando una cinta métrica como se hace en 1,2. Tenga en cuenta que la tapa de EEG está equipado con soportes de electrodos y la colocación de los electrodos (64) o los titulares se basa en un sistema modificado con el sistema de coordenadas 10-20 preespecificados basado en Cz 11.
    Nota: Esta aplicación representante utiliza una configuración de 64 electrodos para evaluar cambios en la distribución del cuero cabelludo y para el análisis de origen. Para las aplicaciones más simples (relacionados con eventos potenciales cambios en la amplitud y la latencia) using menos electrodos son posibles. Hay dos electrodos adicionales para planta en el sistema EEG se utiliza aquí. Esos soportes de electrodos también están incluidos en la tapa.
  4. Aplique el gel de electrodos en los soportes de electrodos utilizando una jeringa desechable.
  5. Coloque los electrodos EEG (incluyendo electrodos de tierra) en los soportes de electrodos que coinciden con las etiquetas de los electrodos y de los titulares de los electrodos en la tapa del electrodo.
  6. Limpie la superficie de la piel con almohadillas con alcohol.
    Nota: Para los electrodos para la detección de movimiento del ojo (electrooculografía), los lugares de la piel se encuentran por encima y por debajo del ojo derecho (movimiento ocular vertical), y lateral al canto externo de los dos ojos (movimiento horizontal del ojo); para la estimulación somatosensorial se limpia la piel lateral al ángulo oral.
  7. Rellena los cuatro electrodos electro-oculografía con el gel de electrodos y asegurar los electrodos con cinta de doble cara a los sitios indicados en 1.6.
  8. Asegure todos los cables de los electrodos utilizando una correa de velcro. Si rEQUERIDO, cinta adhesiva los cables al cuerpo del participante o de los otros lugares que no introducen ningún ruido eléctrico o mecánico adicional.
  9. Coloque el participante en frente del monitor y el robot para la estimulación somatosensorial. Asegure todos los cables de los electrodos de nuevo como en 1.8.
  10. Conecte el EEG y los electrodos electro-oculografía (incluidos los electrodos de tierra) en los conectores apropiados (etiqueta a juego y forma conector) en la caja del amplificador del sistema EEG.
  11. Compruebe que las señales de EEG son artefacto libre y que el valor de desplazamiento está en un rango aceptable (<50 mV o más pequeño). Si no se encuentran señales ruidosas o grandes desplazamientos que suelen ser indicativos de alta impedancia, corregir esas señales de los electrodos mediante la adición de gel de EEG adicional y / o reposición de cabello que está directamente bajo el electrodo.
  12. Inserte los auriculares compatibles con EEG y confirme que el nivel de sonido está en un rango confortable basado en el informe del asunto.

Nota: El protocolo actual se aplica estiramiento de la piel facial con el propósito de estimulación somatosensorial. La configuración experimental con el sistema de EEG está representado en la Figura 1. Los detalles del dispositivo de estimulación somatosensorial se han descrito en los estudios anteriores 1,7,12-14. Brevemente, dos lengüetas de plástico pequeñas (2 cm de ancho y 3 cm de altura) se unen con cinta de doble cara a la piel facial. Las pestañas se conectan al dispositivo robótico utilizando cadena. El robot genera cargas sistemáticas de estiramiento de la piel de acuerdo a los diseños experimentales. El protocolo de configuración para la grabación ERP es el siguiente:

  1. Coloque la cabeza del participante en el apoyo para la cabeza con el fin de minimizar el movimiento de la cabeza durante la estimulación. Retire con cuidado los cables del electrodo entre la cabeza y el reposacabezas del participante.
  2. Pídale al participante que mantenga el interruptor de seguridad para el robot.
  3. Coloque las lengüetas de plástico ala ubicación de la piel de destino con cinta de doble cara para la estimulación somatosensorial. Para el representante da como resultado 12,13, en el que el objetivo es el lateral de la piel con el ángulo oral, colocar el centro de las pestañas de la modiolus, unos pocos mm lateral al ángulo oral con el centro de las pestañas en aproximadamente la misma altura del ángulo oral.
  4. Ajustar la configuración de la cadena, los soportes de cadena y el robot con el fin de evitar electrodos de EEG y cables.
  5. Aplicar unos cuantos estiramientos faciales de la piel (sinusoide un ciclo a 3 Hz con una fuerza máxima de 4 N) para comprobar si hay artefactos debido a la estimulación (por lo general observado como relativamente grande amplitud y la frecuencia más baja en comparación con la respuesta electrofisiológica). Si se observan artefactos en las señales de EEG, volver a 2.4.

Grabación 3. ERP

  1. Explicar la tarea experimental al tema y proporcionar ensayos de práctica (una cuadra = 10 ensayos o menos) para confirmar si el sujeto understands la tarea claramente.
    Nota: La tarea experimental y la presentación del estímulo para la grabación de ERP son preprogramado en software para la presentación del estímulo.
    1. En la prueba representativa con somatosensorial combinado y estimulación auditiva 12, aplicar la estimulación somatosensorial asociada a la deformación de la piel a la piel lateral al ángulo oral. El patrón de estiramiento es una sinusoide un ciclo (3 Hz) con una fuerza máxima de 4 N. Un solo enunciado voz sintetizada que está a medio camino en un continuo sonido de 10 pasos entre "cabeza" y "había" se utiliza para la estimulación auditiva.
    2. Presentes tanto estimulaciones por separado o en combinación. En la estimulación combinada, prueba tres tiempos de inicio (90 ms de plomo y de retraso, y simultáneos en somatosensoriales y auditivas inicios: ver Figura 3A).
    3. Selección aleatoria de la presentación de cinco estimulaciones (somatosensorial solo, auditiva solos y tres combinados:. Plomo, simult ylag). Varíe el intervalo entre ensayos entre 1.000 y 2.000 ms para evitar la anticipación y la habituación. La tarea experimental es identificar si el sonido del habla presentado, que es el sonido que es acústicamente intermedia entre la "cabeza" y "tenía", era "la cabeza" pulsando una tecla en un teclado. En la condición por sí sola somatosensorial, en el que hay hay estimulación auditiva, los participantes son instruidos para responder no "cabeza".
    4. Juicios participantes grabar y el tiempo de reacción desde el inicio del estímulo a la pulsación de tecla con el software de presentación del estímulo. Pídale al participante que mirar un punto de fijación en la pantalla con el fin de reducir los artefactos debido al movimiento ocular.
    5. Retire el punto de fijación cada 10 estimulaciones para un breve descanso. (Véase también otro ejemplo de la tarea y de estímulo presentación 12,13)
  2. Inicie el software para la grabación de ERP a 512 Hzmuestreo, que también registra el tiempo de inicio de la estimulación en la línea de tiempo de los datos de ERP. Tenga en cuenta que las marcas de tiempo de la estimulación, que también incluye la información sobre el tipo de la estimulación, se envían por cada estímulo del software para la presentación del estímulo. Los dos programas (para la grabación de ERP y de la presentación del estímulo) se están ejecutando en dos PC separados que están conectados a través de un puerto paralelo.
  3. Ajuste el software para la estimulación somatosensorial al modo de disparo en espera y luego iniciar la presentación del estímulo mediante la activación del software para la presentación del estímulo. Tenga en cuenta que el software para la estimulación somatosensorial también se ejecuta en un PC separado de los otros dos PCs. Registro 100 ERPs por condición.
    Nota: Una señal de disparo para la estimulación somatosensorial se recibe a través de un dispositivo de entrada analógica que está conectado a un dispositivo de salida digital en el PC para la estimulación sensorial. Estimulación individual somatosensorial es producido por un disparador. </ li>

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

En esta sección se presenta potenciales relacionados con eventos de representación en respuesta a la estimulación somatosensorial resultante de la deformación de la piel facial. La configuración experimental se representa en la Figura 1. Sinusoidal estimulación se aplicó a la piel de la cara lateral al ángulo oral (Véase la Figura 3A como referencia). Se registraron un centenar de ensayos de estiramiento para cada participante con 12 participantes evaluados en total. Después de retirar los ensayos con parpadea y artefactos de movimiento del ojo fuera de línea en la base de las señales electro-oculografía horizontales y verticales (más de ± 150 mV), más del 85% de los ensayos se promediaron. Señales de EEG fueron filtradas con un filtro de paso de banda 0,5 a 50 Hz y re-referenciados a la media de todos los electrodos. Figura 2 muestra la ERP media somatosensorial de electrodos representativos seleccionados. En las regiones frontales, potenciales negativos pico fueron inducidos a 100-200 po msestímulo st inicio seguidas de un potencial positivo a 200-300 ms. Se observó la respuesta más grande de los electrodos de la línea media. A diferencia de los estudios previos de somatosensorial ERP de 15-18, no hay latencia anterior (<100 ms) potenciales. Este patrón temporal es bastante similar a la secuencia N1-P2 típica después de la estimulación auditiva 19. En comparación entre el correspondiente par de electrodos en el hemisferio izquierdo y derecho, el patrón temporal es bastante similar probablemente debido a la estimulación bilateral.

Figura 1
Figura 1. Montaje experimental. Haga clic aquí para ver una versión más grande de esta figura.

Figura 2
Figura 2. potenciales eventos relacionados enrespuesta a la estimulación somatosensorial producido por el estiramiento de la piel facial. Los ERPs se obtuvieron de electrodos representativas. Haga clic aquí para ver una versión más grande de esta figura.

El primer resultado muestra cómo el tiempo de estimulación afecta la interacción multisensorial durante el procesamiento del habla 12. En este estudio, las interacciones de respuesta neural fueron encontrados por la comparación de los ERP obtenidos utilizando pares de estímulo-somatosensoriales auditiva con la suma algebraica de los ERP a los estímulos unisensory presentados por separado. El patrón de estímulos auditivos, somatosensoriales están representados en la figura 3A. La figura 3B muestra el patrón de potenciales relacionados con eventos en respuesta a pares de estímulo-somatosensoriales auditiva (línea roja). Los represen línea negrots la suma de los ERP auditivos y somatosensoriales unisensory individuales. Los tres paneles se corresponden con el tiempo que transcurre entre dos inicios de estímulo: 90 plomo ms del inicio somatosensorial (izquierda), simultánea (Centro) y 90 ms de retardo (Derecha). Cuando la estimulación somatosensorial se presentó 90 mseg antes de la aparición auditiva, hay una diferencia entre las respuestas emparejadas y se suman (el panel izquierdo en la Figura 3B). Este efecto de interacción disminuye gradualmente en función del tiempo transcurrido entre la somatosensorial y entradas auditivas (ver el cambio entre las dos líneas de trazos en la Figura 3B). Los resultados demuestran que la interacción-somatosensorial auditivo se modifica dinámicamente con el momento de la estimulación.

figura 3

Figura 3. potenciales relacionados con eventos reflejan una intera-somatosensorial auditivacción en el contexto de la percepción del habla. Esta figura ha sido modificado de Ito, al. 12 (A) patrón temporal y de somatosensorial y estimulaciones auditivas. (B) los potenciales relacionados con eventos para somatosensorial combinado y estimulación auditiva en tres condiciones de tiempo (plomo, simultánea y de retraso) en el electrodo Pz. La línea roja representa las respuestas a ERPs pareadas registró. La línea discontinua representa la suma de somatosensorial y ERPs auditivo. Las líneas de puntos verticales definen un intervalo de 160 a 220 ms después del inicio somatosensorial en el que se evalúan las diferencias entre "pares" y respuestas "suma". Las flechas representan el inicio auditiva. Por favor haga clic aquí para ver una versión más grande de esta figura.

El siguiente resultado demuestra que la amplitud de la Increa ERP somatosensorialses en respuesta a escuchar el discurso 13. El patrón de estimulación somatosensorial es el mismo que se ha indicado anteriormente. La figura 4 muestra ERPs somatosensoriales, que se convierten en el cuero cabelludo densidad de corriente 20 en el análisis fuera de línea, en electrodos (FC3, FC5, C3) sobre el área sensoriomotora izquierda. Potenciales evocados somatosensoriales se registraron mientras los participantes escuchan el discurso en presencia de continuo suena de fondo. El estudio probó cuatro condiciones básicas: el habla, los sonidos no vocales, rosa-ruido y silenciosas 13. Los resultados indicaron que la amplitud de los potenciales evocados somatosensoriales durante la escucha de los sonidos del habla fue significativamente mayor que las otras tres condiciones. No hubo diferencia significativa en la amplitud de las otras tres condiciones. La Figura 4B muestra amplitudes de pico normalizadas en las diferentes condiciones. El resultado indica que la escucha de los sonidos del habla altera el procesamiento somatosensorial associ ated con deformación de la piel facial.

Figura 4
Figura 4. Mejora de la somatosensoriales potenciales relacionados con eventos debido a los sonidos del habla. Los ERPs se registraron bajo cuatro condiciones de sonido de fondo (Silent, ruido rosa, habla y no habla). Esta figura ha sido modificado de Ito et al. 13 (A) el patrón temporal de los potenciales evocados somatosensoriales en la zona superior del motor izquierdo y la corteza premotora. Cada color corresponde a una condición sonido de fondo diferente. Los ERPs se convirtieron al cuero cabelludo la densidad de corriente 20. (B) Las diferencias en las magnitudes z-score asociados con el primer pico de la somatosensorial ERPs. Las barras de error son los errores estándar a través de los participantes. Cada color corresponde a las diferentes condiciones de sonido de fondo, como en el Panel A.com / files / ftp_upload / 53.621 / 53621fig4large.jpg "target =" _ blank "> Haga clic aquí para ver una versión más grande de esta figura.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Los estudios reportados aquí proporcionan evidencia de que la estimulación somatosensorial controlada con precisión que se produce por deformación de la piel facial induce ERPs corticales. Aferentes cutáneos son conocidos como una rica fuente de información cinestésica 3,4 en movimiento de las extremidades humanas 5,6 y el habla movimiento 7,8,21. El estiramiento de la piel facial de una manera que refleje la dirección de movimiento real durante el habla induce un sentido cinestésico similar al movimiento correspondiente. El método actual que combina grabaciones de estiramiento de la piel y ERP controladas con precisión se puede utilizar para investigar la base neural de la función orofacial durante una amplia gama de comportamientos de habla.

El uso de la estimulación mecánica y grabación simultánea de EEG, es importante monitorear las señales en curso para el artefacto. En particular, puesto que las cadenas utilizadas para estirar la piel se encuentran cerca de los electrodos de EEG y los cables, existe la posibilidad de eléctricaAl y movimiento artefactos que se inducen en las señales EEG. Este artefacto es distinguible porque de amplitud relativamente grande y la frecuencia más baja en comparación con la respuesta electrofisiológica. Antes de grabar, la configuración de estimulación incluyendo la configuración de cadena necesita ser revisado cuidadosamente para identificar y eliminar los artefactos mecánicos debido a la estimulación. Aunque los artefactos se pueden eliminar mediante el procesamiento de señales de correos, como el filtrado o análisis de componentes independientes 22 similar al movimiento de los ojos y parpadeando, las señales más limpios son siempre más deseable.

Los estudios previos de potenciales evocados somatosensoriales han utilizado sobre todo estímulos somatosensoriales breves que fueron producidos usando mecánica 23, 18 eléctrica o láser estimulación nociceptiva 15. Entradas somatosensoriales derivados de este tipo de estimulación no están asociados con ningún movimiento articulatorio particular, en el discurso, y por lo tanto, pueden no seradecuado para investigar el procesamiento cortical relacionada con el habla. Möttönen, et al. 17 no había demostrado un cambio de los potenciales somatosensoriales magnetoenchalographic utilizando labio sencilla tocando durante la escucha de los sonidos del habla. En contraste, la deformación de la piel facial proporciona la entrada cinestésica similar a la que ocurre en conjunción con el movimiento articulatorio de voz 21 y sensoriomotor adaptación 7. Estos estímulos también interactúan con el habla procesamiento perceptivo 1,14. El ERP somatosensorial de la perturbación de estiramiento de la piel actual es más adecuado para la investigación de procesamiento cortical relacionada con el habla que los otros métodos actualmente disponibles para la estimulación somatosensorial. Varias características diferentes se encontraron entre la estimulación de estiramiento de la piel actual y los métodos anteriores. Se requiere más investigación, incluyendo la ubicación de origen.

Aunque la deformación de la piel de la cara se produce to diversos grados durante el movimiento del habla 8, el lateral de la piel con el ángulo bucal está densamente inervada con mecanorreceptores cutáneos 10,24 y puede ser predominantemente responsable de la detección de estiramiento de la piel durante el habla. La piel de las comisuras de la boca puede ser especialmente importante para el control motor del habla y el aprendizaje motor del habla. El enfoque actual es algo limitado debido a que el estiramiento de la piel se puede hacer solamente en una dirección y en una ubicación por sesión EEG. Usando una deformación de la piel más compleja y la evaluación de múltiples direcciones y / o en varias ubicaciones en una sola sesión EEG proporcionará una mayor comprensión de la función específica de somatosensation en procesamiento del habla.

Hay intereses de larga data en los estudios de comunicación de habla acerca de la naturaleza de las representaciones y el procesamiento de la producción del habla y la percepción 25-27. El descubrimiento de las neuronas espejo 28,29 reforzó la idea de que la diversión del motorcciones están implicados en la percepción del habla. La participación del sistema motor (o la corteza motora y premotora) También se ha investigado 30-35 en la percepción de los sonidos del habla. Sin embargo, el vínculo entre la producción del habla y la percepción aún es poco conocido. Explorando las posibles influencias somatosensoriales en la percepción del habla puede ayudar a entender las bases neurales de la percepción del habla y de la producción, y si se solapan o vínculo. La técnica actual para modular la función somatosensorial ha proporcionado una nueva herramienta para investigar esta importante área de investigación. La técnica actual tiene la ventaja adicional de que puede ser utilizado en las investigaciones de la función somatosensorial más general y cómo interactúa con otras modalidades sensoriales en el procesamiento neural.

Subscription Required. Please recommend JoVE to your librarian.

Acknowledgements

Este trabajo fue apoyado por el Instituto Nacional de la Sordera y Otros Trastornos de la Comunicación Subvenciones R21DC013915 y R01DC012502, las Ciencias Naturales e Ingeniería de Investigación de Canadá y el Consejo Europeo de Investigación dentro del Séptimo Programa Marco de la Comunidad Europea (FP7 / 2.007-2.013 Acuerdo de subvención no. 339152 ).

Materials

Name Company Catalog Number Comments
EEG recording system Biosemi ActiveTwo
Robotic decice for skin stretch Geomagic Phantom Premium 1.0
EEG-compatible earphones Etymotic research ER3A
Software for visual and auditory stimulation Neurobehavioral Systems Presentation
Electrode gel Parker Laboratories, INC Signa gel
Double sided tape 3M 1522
Disposable syringe Monoject 412 Curved Tip
Analog input device National Instuments  PCI-6036E
Degital output device Measurement computing USB-1208FS

DOWNLOAD MATERIALS LIST

References

  1. Ito, T., Tiede, M., Ostry, D. J. Somatosensory function in speech perception. Proc Natl Acad Sci U S A. 106, 1245-1248 (2009).
  2. Gick, B., Derrick, D. Aero-tactile integration in speech perception. Nature. 462, 502-504 (2009).
  3. McCloskey, D. I. Kinesthetic sensibility. Physiol Rev. 58, 763-820 (1978).
  4. Proske, U., Gandevia, S. C. The kinaesthetic senses. J Physiol. 587, 4139-4146 (2009).
  5. Collins, D. F., Prochazka, A. Movement illusions evoked by ensemble cutaneous input from the dorsum of the human hand. J Physiol. 496, (Pt 3), 857-871 (1996).
  6. Edin, B. B., Johansson, N. Skin strain patterns provide kinaesthetic information to the human central nervous system. J Physiol. 487, (Pt 1), 243-251 (1995).
  7. Ito, T., Ostry, D. J. Somatosensory contribution to motor learning due to facial skin deformation. J Neurophysiol. 104, 1230-1238 (2010).
  8. Connor, N. P., Abbs, J. H. Movement-related skin strain associated with goal-oriented lip actions. Exp Brain Res. 123, 235-241 (1998).
  9. Johansson, R. S., Trulsson, M., Olsson, K. Â, Abbs, J. H. Mechanoreceptive afferent activity in the infraorbital nerve in man during speech and chewing movements. Exp Brain Res. 72, 209-214 (1988).
  10. Nordin, M., Hagbarth, K. E. Mechanoreceptive units in the human infra-orbital nerve. Acta Physiol Scand. 135, 149-161 (1989).
  11. Guideline thirteen: guidelines for standard electrode position nomenclature. American Electroencephalographic Society. Journal of clinical neurophysiology : official publication of the American Electroencephalographic Society. 11, 111-113 (1994).
  12. Ito, T., Gracco, V. L., Ostry, D. J. Temporal factors affecting somatosensory-auditory interactions in speech processing. Frontiers in psychology. 5, 1198 (2014).
  13. Ito, T., Johns, A. R., Ostry, D. J. Left lateralized enhancement of orofacial somatosensory processing due to speech sounds. J Speech Lang Hear Res. 56, S1875-S1881 (2013).
  14. Ito, T., Ostry, D. J. Speech sounds alter facial skin sensation. J Neurophysiol. 107, 442-447 (2012).
  15. Kenton, B., et al. Peripheral fiber correlates to noxious thermal stimulation in humans. Neuroscience letters. 17, 301-306 (1980).
  16. Larson, C. R., Folkins, J. W., McClean, M. D., Muller, E. M. Sensitivity of the human perioral reflex to parameters of mechanical stretch. Brain Res. 146, 159-164 (1978).
  17. Möttönen, R., Järveläinen, J., Sams, M., Hari, R. Viewing speech modulates activity in the left SI mouth cortex. Neuroimage. 24, 731-737 (2005).
  18. Soustiel, J. F., Feinsod, M., Hafner, H. Short latency trigeminal evoked potentials: normative data and clinical correlations. Electroencephalogr Clin Neurophysiol. 80, 119-125 (1991).
  19. Martin, B. A., Tremblay, K. L., Korczak, P. Speech evoked potentials: from the laboratory to the clinic. Ear and hearing. 29, 285-313 (2008).
  20. Perrin, F., Bertrand, O., Pernier, J. Scalp current density mapping: value and estimation from potential data. IEEE Trans Biomed Eng. 34, 283-288 (1987).
  21. Ito, T., Gomi, H. Cutaneous mechanoreceptors contribute to the generation of a cortical reflex in speech. Neuroreport. 18, 907-910 (2007).
  22. Onton, J., Westerfield, M., Townsend, J., Makeig, S. Imaging human EEG dynamics using independent component analysis. Neurosci Biobehav Rev. 30, 808-822 (2006).
  23. Larsson, L. E., Prevec, T. S. Somato-sensory response to mechanical stimulation as recorded in the human EEG. Electroencephalogr Clin Neurophysiol. 28, 162-172 (1970).
  24. Johansson, R. S., Trulsson, M., Olsson, K. Â, Westberg, K. G. Mechanoreceptor activity from the human face and oral mucosa. Exp Brain Res. 72, 204-208 (1988).
  25. Diehl, R. L., Lotto, A. J., Holt, L. L. Speech perception. Annu Rev Psychol. 55, 149-179 (2004).
  26. Liberman, A. M., Mattingly, I. G. The motor theory of speech perception revised. Cognition. 21, 1-36 (1985).
  27. Schwartz, J. L., Basirat, A., Menard, L., Sato, M. The Perception-for-Action-Control Theory (PACT): A perceptuo-motor theory of speech perception. J Neurolinguist. 25, 336-354 (2012).
  28. Rizzolatti, G., Craighero, L. The mirror-neuron system. Annu Rev Neurosci. 27, 169-192 (2004).
  29. Rizzolatti, G., Fabbri-Destro, M. The mirror system and its role in social cognition. Curr Opin Neurobiol. 18, 179-184 (2008).
  30. D'Ausilio, A., et al. The motor somatotopy of speech perception. Curr Biol. 19, 381-385 (2009).
  31. Fadiga, L., Craighero, L., Buccino, G., Rizzolatti, G. Speech listening specifically modulates the excitability of tongue muscles: a TMS study. Eur J Neurosci. 15, 399-402 (2002).
  32. Meister, I. G., Wilson, S. M., Deblieck, C., Wu, A. D., Iacoboni, M. The essential role of premotor cortex in speech perception. Curr Biol. 17, 1692-1696 (2007).
  33. Möttönen, R., Watkins, K. E. Motor representations of articulators contribute to categorical perception of speech sounds. J Neurosci. 29, 9819-9825 (2009).
  34. Watkins, K. E., Strafella, A. P., Paus, T. Seeing and hearing speech excites the motor system involved in speech production. Neuropsychologia. 41, 989-994 (2003).
  35. Wilson, S. M., Saygin, A. P., Sereno, M. I., Iacoboni, M. Listening to speech activates motor areas involved in speech production. Nat Neurosci. 7, 701-702 (2004).

Comments

0 Comments


    Post a Question / Comment / Request

    You must be signed in to post a comment. Please or create an account.

    Video Stats