Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove

A subscription to JoVE is required to view this content.
You will only be able to see the first 20 seconds.

Décodage des images auditives avec Multivoxel Pattern Analysis
 

Décodage des images auditives avec Multivoxel Pattern Analysis

Article

Transcript

Please note that all translations are automatically generated.

Click here for the English version.

Les images auditives sont un processus qui donne lieu à l’expérience d’entendre un son, même quand il n’y a aucun stimuli auditifs externes présents.

Par exemple, pensez à entendre le son d’une sonnerie de téléphone cellulaire. Alors que l’information au sein de la mémoire est à la base cet événement imaginaire, suggèrent que le cerveau d’un individu utilise les mêmes mécanismes d’imagination que ceux qui sont impliqués dans la perception réelle.

Juste à imaginer la sonnerie, régions à l’intérieur du cortex auditif deviennent activées. Toutefois, même si cela est vrai dans l’ensemble des stimuli acoustiques, comment sons sont encodés afin de permettre le traitement détaillé des sons distincts — comme la distinction entre un carillon sonnette et une chanson en jouant sur la radio — est une question importante.

Basé sur les travaux antérieurs de Meyer et ses collègues, cette vidéo montre comment combiner l’imagerie par résonance magnétique fonctionnelle, IRMf — par la présentation des différentes vidéos silencieux pour étudier comment le cerveau réagit à l’imagerie auditive.

Nous décrirons également comment utiliser une méthode appelée analyse multi-voxel — MVPA en abrégé — pour prédire quels sujets ont imaginé par analyser les modèles d’activation obtenue pendant les sessions de l’IRMf.

Dans cette expérience, les participants se trouvent dans un scanner IRMf et figurent une série de vidéos silencieux. Chacun d’eux — c’est un chant de coq, une tronçonneuse coupe à travers un arbre, ou une personne qui joue un piano — évoque des images auditives distinctif et vives, et ils sont invités à imaginer les sons lors de chaque présentation unique.

La procédure d’acquisition d’imagerie s’appuie sur un échantillonnage temporel clairsemée, auquel cas un volume unique IRMf est acquis 4 à 5 s après chaque stimulus est présenté. Ce calendrier capte le pic de la réponse hémodynamique et réduit la probabilité que signaux seraient être masqués par le bruit du scanner.

Chacun a imaginé son devrait inciter les patrons subtils et distinctifs de l’activité neurale, plus précisément dans le cortex auditif. Ici, le modèle est le mot clé : la manière classique d’analyser ces données utilise une approche unidimensionnelle, où les voxels individuels — représentant quelque niveau d’activation — sont regroupées en une seule moyenne.

Ces valeurs sont ensuite comparées sur sons et ne peuvent produire aucune différence significative dans les niveaux d’activation.

Au lieu de cela, à l’aide d’une analyse multivariée, multiples voxels sont énoncées pour chaque son et niveaux d’activation peuvent être comparés collectivement, à travers tous les voxels — contribuant à un modèle global unique pour chacun imaginé sonoriser.

Avec cette analyse multi-voxel ou MVPA, approche, si les schémas sont en effet sensibles à un contenu spécifique, alors il est possible qu’ils pourraient servir à prédire le stimulus original. C’est vrai — MVPA parle souvent à une technique de lecture de l’esprit !

Pour obtenir cet aspect de la prédiction, traitement plus intensif doit être effectuée après la collecte des données des participants, qui sont divisées en formation et les tests de jeux.

Données étiquetées de l’ensemble de la formation sont d’abord soumises aux calculs de l’apprentissage automatique, plus précisément, un algorithme de Machine de vecteur de soutien. Ce processus est utilisé pour classer avec précision les données en reconnaissant les fonctionnalités dans les modèles neurones qui peuvent distinguer les trois types de sons de l’autre.

Après que le classificateur a appris les caractéristiques pour identifier avec précision les types, il est présenté avec les données du jeu de test sans étiquette, et ses suppositions sont ensuite comparées aux étiquettes des stimuli corrects.

Dans ce cas, la performance de classification sert comme variable dépendante — enregistré comme précision du classificateur — qui est aussi comparée à voxels évoqué dans un autre emplacement dans le cerveau, comme le mât de façade.

Le classificateur devrait prévoir l’identification des images auditives, révélant l’importance de l’ApMV dans la détection de l’activité spécifique contenu dans le cortex auditif.

Par expérimentale et problèmes de sécurité, vérifiez que tous les participants sont droitiers, ont une vision normale ou corrigée-à la normale, pas d’antécédents de troubles neurologiques ou de claustrophobie et ne possèdent pas de n’importe quel métal dans leur corps. En outre, s’assurer qu’ils remplissent les formulaires de consentement nécessaire.

Avant de procéder, expliquent qu’ils verront plusieurs courtes vidéos silencieux dans le scanner qui peut évoquer un son dans leur esprit. Demandez-leur de se concentrer sur les sons imaginaires, « entendre » mieux qu’ils le peuvent et de rester encore pendant la durée de la tâche.

Maintenant, préparer le participant d’entrer dans le scanner. Pour visualiser ces étapes en détail, veuillez vous référer à un autre IRMf vidéo produite dans cette collection.

Après préparation, aligner le participant et envoyez-les à l’intérieur de l’alésage. Dans la salle adjacente, d’abord rassembler un scan haute résolution anatomique. Puis, de synchroniser le début de la vidéo de présentation silencieuse avec le début de l’analyse fonctionnelle.

Pour réaliser l’échantillonnage temporel clairsemée, définir le temps d’acquisition d’un volume de MRI à 2 s, avec un retard de 9-s entre les deux.

Coordonner ce qui est important, le début de chaque clip vidéo 5-s pour commencer 4 s après l’acquisition de MRI précédente commence à capturer l’activité hémodynamique qui correspond au milieu du film.

Présenter chaque vidéo 10 fois, dans un ordre aléatoire, générant une session de scannage qui dure 5,5 min. répéter cette séquence d’acquisition fonctionnelle trois fois plus.

Après que les quatre balayages fonctionnels ont été réalisées, amener le participant sur le scanner et debrief afin de conclure l’étude.

Pour définir des régions d’intérêt, utilisez les scans haute résolution anatomiques de chaque participant et trace voxels sur la surface du lobe temporal qui correspondent au cortex auditif précoce, également connu sous le nom la temporale planum. En outre, créer un masque contenant des voxels dans le lobe frontal, qui sera utilisé comme la zone de contrôle.

Ensuite, les données de prétraitement en effectuant la correction de mouvement pour réduire les artefacts de mouvement et un filtrage temporel pour supprimer le signal des dérives.

Ensuite, diviser les données en deux ensembles : apprentissage et de test. Dans un ensemble de données, former un classifieur — un algorithme de machine de vecteur de soutien — en veillant à conserver les données provenant des régions de deux cerveau distincte pour chaque sujet.

Dans l’autre groupe, évaluer ce qu’a appris le classifieur — sa capacité à deviner correctement l’identité des données sans étiquette — et enregistrer la précision de l’algorithme sur pistes. Effectuer cette procédure au total quatre fois, en laissant de côté une seule analyse fonctionnelle comme données de vérification chaque fois — un processus appelé la validation croisée.

Pour visualiser les données, le graphique les précisions de classificateur en moyenne à travers les quatre plis de validation croisée pour chaque participant.

Tracer ces moyennes pour les deux la principale région d’intérêt — le planum temporale — et la zone de contrôle — le mât de façade — comparer focale spécificité du classificateur, le degré auquel un espace particulier, comme le cortex auditif, est sélectivement prédit d’être impliqués dans l’imagination auditive.

Dans ce cas, exécutez une statistique non paramétrique, le test de Wilcoxon Signed-grade, pour tester les performances contre le hasard, ce qui est de 33 %. Notez que la précision moyenne classifieur dans le cortex auditif était de 59 %, qui diffère considérablement du niveau de chance.

En revanche, la performance moyenne dans le masque de mât de façade était de 33 %, qui n’est pas significativement différente de la chance.

En outre, Notez que performance classifieur variait entre individus. Après avoir utilisé un test par permutations pour calculer un nouveau seuil statistique de 42 %, voir que 19 des 20 sujets ont des valeurs de précision nettement supérieures à ce niveau en utilisant des voxels du planum temporale, alors qu’aucun n’avait plus de chance en utilisant des voxels du pôle frontal performance.

Dans l’ensemble, ces résultats impliquent que techniques MVPA prédit exactement lequel des trois sons participants étaient imaginant basée sur la structure de l’activité neurale. Ces prévisions ont été faites uniquement dans le cortex auditif, ce qui suggère que contenu acoustique n’est pas représenté à l’échelle mondiale dans tout le cerveau.

Maintenant que vous êtes familier avec la façon d’appliquer l’analyse multi-voxel pour étudier des images auditives, regardons comment les neuropsychologues utilisent techniques multivariées pour avancer une approche futuriste à la lecture de l’esprit — le décodage des États mentaux — dans d’autres domaines.

Classificateurs ont été utilisés sur les données IRMf du cortex temporal ventral pour prévoir les types de participants objets lus, faire la distinction entre les maisons et les visages, par exemple.

Prenant ce une étape plus loin, il est même possible de prédire si la personne aurait acheter cette maison ou trouver la personne agréable. Aussi effrayant que cela puisse paraître, ces incidences sur le neuromarketing sont pas tiré par les cheveux !

La même approche pourrait également être utilisée pour détecter chaque états émotionnels après avoir vu un spectacle — reconnaissant qu’un film effrayant est en effet terrifiant — ou même le genre de film ; par exemple, le film effrayant pourrait engager l’amygdale plus prévisible un contemplatif qui impliquerait sûrement le cortex préfrontal.

En outre, les interfaces cerveau-ordinateur pourraient convertir des États mentaux en signaux qui amélioreraient la communication, dans le cas de personnes subissant une thérapie de la parole, ou mouvements, pour ceux qui ont souffert de l’amputation d’un membre.

Vous avez juste regardé les vidéo de JoVE sur la compréhension des images auditives à l’aide d’analyse multi-voxel. Maintenant vous devriez avoir une bonne compréhension de la façon de concevoir et de réaliser l’expérience auditive de l’imagerie en conjonction avec la neuro-imagerie fonctionnelle et enfin comment analyser et interpréter les modèles spécifiques de l’activité cérébrale.

Merci de regarder !

Read Article

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
simple hit counter