Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove

A subscription to JoVE is required to view this content.
You will only be able to see the first 20 seconds.

Descodificación de imágenes auditivas con análisis Multivoxel
 

Descodificación de imágenes auditivas con análisis Multivoxel

Article

Transcript

Please note that all translations are automatically generated.

Click here for the English version.

Imágenes auditivas son un proceso que da lugar a la experiencia de los sonidos de la audiencia, incluso cuando no hay estímulos auditivos externos presentes.

Por ejemplo, pensar en escuchar el sonido de un timbre de teléfono celular. Mientras que la información dentro de la memoria es la base de este acontecimiento imaginario, la evidencia sugiere que cerebro de un individuo utiliza los mismos mecanismos de imaginación como los que están implicados en la percepción real.

Sólo con imaginar el sonido, se activan las regiones dentro de la corteza auditiva. Sin embargo, aunque esto es cierto a través de estímulos acústicos, cómo sonidos son codificados para permitir el procesamiento detallado de sonidos diferentes: como distinguir entre un timbre timbre de la puerta y una canción en la radio — es una cuestión importante.

Basado en trabajos anteriores de Meyer y sus colegas, este video muestra cómo combinar la proyección de imagen de resonancia magnética funcional – fMRI, con presentaciones de diferentes vídeos silenciosos para investigar cómo el cerebro responde a las imágenes auditivas.

También se describe cómo utilizar un método llamado análisis del patrón de multi-voxel — MVPA para abreviar — para predecir qué temas imaginado mediante el análisis de patrones de activación obtenida durante las sesiones de fMRI.

En este experimento, los participantes se encuentran en un escáner fMRI y aparecen una serie de videos silencio. Cada uno — si es un gallo que canta, una motosierra cortando un árbol, o una persona tocando un piano — evoca imágenes auditivas distintivo y viva, y se les pide que imaginen los sonidos durante cada presentación individual.

El procedimiento de adquisición de imágenes se basa en el escaso muestreo temporal, por el que un volumen de fMRI solo se adquiere 4 a 5 s después de cada estímulo se presenta. Tal momento capta el pico de la respuesta hemodinámica y reduce la probabilidad de que las señales ser enmascaradas por el ruido del escáner.

Cada uno imaginó sonido se espera inducir sutiles pero distintivo patrones de actividad neural, específicamente en la corteza auditiva. Aquí, patrón es la palabra clave: la forma clásica de analizar estos datos utiliza un enfoque univariado, donde los vóxeles individuales — que representan cierto nivel de activación, se contraen en una sola media.

Estos valores son luego comparados a través de sonidos y no produzca diferencias significativas en los niveles de activación.

En su lugar, mediante un análisis multivariado, múltiples voxels son establecidos para cada sonido y niveles de activación pueden compararse colectivamente, a través de todos los vóxeles, contribuyendo a un patrón general único para cada uno imaginaba el sonido.

Con este análisis del patrón de multi-voxel o MVPA, enfoque, si los patrones son realmente sensibles al contenido específico, entonces es posible que podría utilizarse para predecir el estímulo original. Eso es correcto — MVPA se refiere a menudo como una técnica de lectura de la mente!

Para conseguir este aspecto de la predicción, procesamiento más intensivo debe ser realizado después de recoger los datos de los participantes, que se dividen en entrenamiento y pruebas de sistemas.

Etiquetado datos del conjunto de entrenamiento primero son sometidos a cálculos de aprendizaje máquina, en concreto, un algoritmo de la máquina de vectores soporte. Este proceso se utiliza para clasificar con precisión los datos mediante el reconocimiento de características en los patrones neuronales que pueden distinguir los tres tipos de sonidos entre sí.

Después de que el clasificador ha aprendido funciones para identificar con precisión los tipos, se presenta con datos del conjunto de pruebas, y su conjetura entonces se compara a las etiquetas de los estímulos correctos.

En este caso, el rendimiento de clasificación sirve como variable dependiente, como precisión del clasificador, que también es comparado con vóxeles evocado en una ubicación diferente en el cerebro, como el polo frontal.

El clasificador se pretende predecir la identificación de imágenes auditivas, revelando la importancia de la MVPA en la detección de actividad de contenido específico dentro de la corteza auditiva.

Por experimental y cuestiones de seguridad, verificar que todos los participantes son diestros, tienen visión normal o corregida a normal, sin antecedentes de trastornos neurológicos o claustrofobia y no poseen ningún metal en su cuerpo. Además, asegúrese de que llene los formularios de consentimiento necesario.

Antes de seguir, explicar que vean varios vídeos cortos de silencio en el escáner que puede evocar un sonido en su mente. Pídales a centrarse en los sonidos imaginados, "oír" lo mejor que pueden y aún durante la duración de la tarea.

Ahora, preparar al participante para entrar en el escáner. Para ver estos pasos en detalle, por favor consulte otra fMRI video producido en esta colección.

Después de la preparación, alinee al participante y enviar dentro del alesaje. En la habitación contigua, en primer lugar recoger una exploración anatómica de alta resolución. A continuación, sincronizar el inicio de la presentación video silencioso con el inicio de la exploración funcional.

Para lograr el escaso muestreo temporal, establecer el tiempo de la adquisición de un volumen de MRI a 2 s, con un retraso de 9-s en el medio.

Lo importante es coordinar el inicio de cada clip de vídeo de 5-s para iniciar 4 s después de la adquisición anterior de MRI empieza a capturar la actividad hemodinámica que corresponde a la mitad de la película.

Cada video 10 veces, en orden aleatorio, generar una sesión de escaneado que dura 5,5 min repetir esta secuencia de adquisición funcional tres veces más.

Después de que se han realizado las cuatro exploraciones funcionales, traer al participante fuera del escáner y debrief para concluir el estudio.

Para definir regiones de interés, utilizar las exploraciones de alta resolución anatómicas de cada participante y rastro voxels en la superficie del lóbulo temporal que corresponde a la corteza auditiva temprana, también conocido como el planum temporale. Además, crear una máscara que contiene voxels en el lóbulo frontal, que se utilizará como la región de control.

Entonces, preprocesar los datos mediante la realización de corrección de movimiento para reducir el filtrado temporal para quitar señal derivas y artefactos de movimiento.

A continuación, dividir los datos en dos conjuntos: entrenamiento y pruebas. Un conjunto de datos, un clasificador de tren — un algoritmo de máquina de vectores soporte, asegúrese de separar los datos de las regiones del dos cerebro para cada tema.

En el otro conjunto, evaluar lo que ha aprendido el clasificador — su capacidad de adivinar correctamente la identidad de los datos sin etiqueta y grabar la exactitud del algoritmo a través de carreras. Realizar este procedimiento un total de cuatro veces, dejando fuera una exploración funcional como datos de prueba cada vez, un proceso llamado validación cruzada.

Para visualizar los datos, graficar las exactitudes clasificador promedio a través de los cuatro pliegues de validación cruzada para cada participante.

Trazar estos promedios para ambos la principal región de interés, el planum temporale y el área de control — el polo frontal — comparar focal especificidad del clasificador, la medida que un área particular, como la corteza auditiva, selectivamente se prevé que en la imaginación auditiva.

En este caso, ejecute una estadística no paramétrica, la prueba de Wilcoxon Signed-Rank, para probar funcionamiento contra el azar, que es 33%. Tenga en cuenta que la precisión del clasificador promedio en la corteza auditiva era 59%, que es significativamente diferente del nivel de posibilidad.

En contraste, el rendimiento medio de la máscara frontal del poste fue 33%, que no es significativamente diferente de la oportunidad.

Además, observe que desempeño clasificador varía entre individuos. Después de usar una prueba de permutación para calcular un nuevo umbral estadístico de 42%, ver que 19 de 20 sujetos presentaron valores de exactitud significativamente mayores que este nivel usando voxels del planum temporale, mientras que ninguno tenía rendimiento mayor de probabilidades usando voxels del polo frontal.

En general, estos resultados implican que técnicas MVPA predijeron con exactitud cuál de los tres sonidos participantes fueron imaginando basada en patrones de actividad neuronal. Estas predicciones fueron hechas sólo dentro de la corteza auditiva, lo que sugiere que contenido acústico no esté representado a nivel mundial a través del cerebro.

Ahora que usted está familiarizado con cómo aplicar el análisis del patrón de multi-voxel para estudiar imágenes auditivas, echemos un vistazo a cómo los neuropsicólogos utilizan técnicas multivariantes para promover un enfoque futuro para leer la mente, la decodificación de Estados mentales, en otros dominios.

Clasificadores se han utilizado fMRI datos obtenidos de la corteza temporal ventral para predecir las clases de los participantes objetos visitaron, distinguiendo entre casas y caras, por ejemplo.

Esta dando un paso más, es incluso posible predecir si el individuo comprar esa casa o encontrar a la persona agradable. Tan espeluznante como que suena, estas implicaciones de neuromarketing no son exageradas!

El mismo enfoque podría utilizarse también para detectar cualquiera de los dos estados emocionales después de ver un espectáculo, reconociendo que una película de miedo es en verdad aterrador — o incluso el género de la película; por ejemplo, la aterradora película podría comprometer la amígdala más fiable sobre una contemplativa que implicaría confiablemente la corteza prefrontal.

Además, las interfaces cerebro-computadora podrían convertir Estados mentales en las señales que podrían mejorar la comunicación, en el caso de personas que reciben terapia del habla o movimientos, para aquellos que han sufrido amputación de una extremidad.

Sólo has visto video de Zeus en la comprensión de imágenes auditivas mediante análisis multi-voxel. Ahora debe tener una buena comprensión de cómo diseñar y realizar el experimento de imaginería auditiva junto con neuroimagen funcional y finalmente cómo analizar e interpretar patrones específicos de actividad cerebral.

¡Gracias por ver!

Read Article

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
simple hit counter