RESEARCH
Peer reviewed scientific video journal
Video encyclopedia of advanced research methods
Visualizing science through experiment videos
EDUCATION
Video textbooks for undergraduate courses
Visual demonstrations of key scientific experiments
BUSINESS
Video textbooks for business education
OTHERS
Interactive video based quizzes for formative assessments
Products
RESEARCH
JoVE Journal
Peer reviewed scientific video journal
JoVE Encyclopedia of Experiments
Video encyclopedia of advanced research methods
EDUCATION
JoVE Core
Video textbooks for undergraduates
JoVE Science Education
Visual demonstrations of key scientific experiments
JoVE Lab Manual
Videos of experiments for undergraduate lab courses
BUSINESS
JoVE Business
Video textbooks for business education
Solutions
Language
French
Menu
Menu
Menu
Menu
Please note that some of the translations on this page are AI generated. Click here for the English version.
Source : Laboratoire de Jonathan Flombaum, Johns Hopkins University
Langue parlée, une réussite humaine singulière, s’appuie fortement sur des mécanismes perceptifs spécialisés. Une caractéristique importante des mécanismes de perception de langue, c’est qu’ils dépendent simultanément des informations auditives et visuelles. C’est logique, parce que jusqu'à l’époque moderne, une personne pouvait espérer que la plupart de langue serait entendu en face-à-face. Et parce que la production de phonèmes spécifiques requiert articulation précise, la bouche peut fournir des informations visuelles bonnes sur ce que quelqu'un veut dire. En effet, avec une vue de près et dégagée du visage d’une personne, la bouche peut souvent fournir mieux les signaux visuels que discours fournit des signaux auditifs. Le résultat est que le cerveau humain favorise l’entrée visuelle et l’utilise pour lever l’ambiguïté sur une ambiguïté inhérente au langage parlé.
Cette dépendance sur entrée visuelle d’interpréter son a été décrite par Harry McGurk et John Macdonald dans un document en 1976 appelé audition des lèvres et voir la voix. 1 dans ce document, ils ont décrit une illusion qui se pose à travers une incompatibilité entre un enregistrement sonore et un enregistrement vidéo. Cette illusion est devenu connue comme l’effet McGurk. Cette vidéo vous montrera comment produire et interpréter l’effet McGurk.
1. les stimuli
2. induisant l’Illusion
Perception de la langue — sous une forme orale — bénéficie d’interactions en face à face, comme la bouche fournit de bonnes informations visuelles pour articuler des sons spécifiques.
Par exemple, dans une situation de près et vue dégagée, une personne peut regarder leur ami mention va à la plage. Dans ce cas, ils utilisent l’entrée visuelle — observant le mouvement autour des lèvres et la langue — à comprendre clairement ce qui a été dit.
Toutefois, si l’ami continue de parler hors de la vue dans une autre pièce, ils pourraient être tentés de regarder la télévision avec sourdine et donc doivent s’appuyer uniquement sur la voix obstruée pour comprendre le message.
Dans ce cas, ce qui a été effectivement dit à la fin de queue, pick, interféré avec le coup de pied silencieux et a été interprété comme la tique. Il s’agit d’un exemple de l’effet McGurk — une illusion perceptive qui se pose à travers une incompatibilité entre des indices sonores et visuelles.
Cette vidéo montre comment construire les stimuli audiovisuels pour tester le phénomène initialement découvert par Mohamed et Macdonald. Il étudie également l’interaction entre vision avec une production sonore pour comprendre comment les individus apprennent des langues à un très jeune âge.
Dans cette expérience, les participants sont invités à regarder les vidéos avec sourdine, dans laquelle un mot comme gain est mis dans la bouche, tout en un son comme bane est joué simultanément en arrière-plan. Par la suite, ils sont invités à partager ce qu’ils entendaient.
Pour comprendre le résultat, comment l’illusion est produite, nous allons d’abord discuter comment phonèmes, les unités minimales de phonèmes — s’articulent.
Par exemple, bane et gain partagent les mêmes éléments dans toutes les positions à l’exception de la première, qui sont les sons /b/ et/g /.
Bien que les mots avec ces phonèmes initiales peuvent sembler similaires, lorsque /g/ est montré et /b/ est jouée, individus devraient entendre un troisième complètement différent — / d / — au lieu de cela.
La raison pour laquelle /d/ est entendu est dû au fait que tous les trois sont essentiellement produites de la même manière, avec seulement une petite différence dans où l’orateur met un obstacle au flux d’air, appelé les points d’articulation, ou POA.
Par exemple, lorsqu’un son /b/ est présentée, lèvres fournissent l’obstruction, ce qui entraîne un POA labiale, tandis que pour/g /, il est désigné en tant que palatale — à l’arrière de la bouche. Quant à/d /, le POA est dentaire, une conséquence de la langue touche les dents du haut.
Lorsque le cerveau intègre les contradictoires /g/ visuelle et auditive/b /, il conclut que le son final doit se situer quelque part au milieu de POAs, donc entendre /d/ et avoir signalé le mot Dane.
En prévision de la manifestation, obtenir un ordinateur pour présenter les vidéos sur et un smartphone avec une caméra vidéo.
Commencez par placer la caméra pour que votre tête remplit l’écran. Maintenant, quatre agrafes record de 10 s, chacun d'entre eux contenant différents mots qui doivent être répétées 10 fois à raison de 1 mot/s. Veillez à transférer le gain et peut les vidéos sur l’ordinateur pour la lecture visuelle.
Pour mener l’expérience, s’asseoir un participant devant l’ordinateur. Ouvrir le fichier vidéo pour le gain de mot et désactiver l’audio.
Au téléphone, ouvrir le clip de bane. Placez-le derrière l’ordinateur afin que son écran est caché et que le bruit peut être entendu clairement.
Demander au participant de regarder l’écran d’ordinateur et d’écouter. Ensuite, jouer les deux vidéos en même temps.
Quand les clips finissent, demander au participant ce qu’ils entendaient. [Participant déclare : « Dane »]. Répétez la procédure de lecture de la vidéo de la parole peut être téléchargé sur l’ordinateur et la présentation de l’audio pour pan sur le téléphone. Une fois de plus, la question du participant quant à ce qu’ils entendaient. [Participant déclare : « tan »].
Ici, le fléau de mots et le pan ont été joués à haute voix comme le participant regardé gain et peuvent être portés à la bouche. En règle générale, lorsqu’un terme avec le phonème /g/ est montré visuellement et jumelé avec le son/b /, individus vont entendre/d /.
De même, quand un mot commençant par /k/ est jumelé avec le son/p /, individus vont entendre/t /.
La raison derrière cette perception auditive est en raison de la façon que les sons sont produits. Le Cerveau essaie de résoudre des renseignements contradictoires aux yeux en Voyant Les mouvements labiaux — / b/et/p / — tandis que l'oreille entend des unités palatale, / g/et/k /. Par conséquent, il conclut que les sons doivent se situer au milieu, ce qui entraîne la perception des phonèmes dentaires — / d/et/t /.
Maintenant que vous êtes familier avec la façon de produire l’effet McGurk, regardons quelques autres façons que les chercheurs utilisent ce phénomène perceptif pour enquêter sur le développement du langage et cas dont l’effet est modifié.
Les enfants peuvent même être testés sur l’effet McGurk, dès cinq mois, lorsqu’ils sont pré linguistiques, à l’aide d’un paradigme de l’accoutumance de la recherche-temps.
Dans cette procédure, Rosenblum et collègues ont présenté à plusieurs reprises les bébés avec une syllabe donnée, comme va, dans les deux domaines audio et visuelles avant d’introduire des phonèmes ne correspondent pas à une phase de test.
Nourrissons a montré des signes d’accoutumance à va — réduite à la recherche de temps — et déshabituation, a noté comme accru à la recherche, quand quelque chose autre que va a été perçu. Ainsi, avant même que les enfants peuvent parler, ils affichent des résultats semblables en tant qu’adultes, dans laquelle ils s’appuient sur l’utilisation des informations visuelles pour discrimination linguistique.
Cependant, les enfants autistes ont plus de Difficulté présentant l’effet McGurk aussi facilement que les contrôles en raison de leur capacité à comprendre et à assister les composants visuels du visage. Cela indique des différences fondamentales dans le traitement des discours audiovisuel, qui peuvent contribuer à leur degré de difficulté avec la langue et de la communication.
Enfin, les patients présentant des lésions dans leur hémisphère gauche — le côté généralement prédominant pour la compréhension et l’apprentissage de la langue — utilisent souvent les traits du visage visuels pour aider au cours de la thérapie de la parole. Fait intéressant, lors d’un essai sur l’effet McGurk, elles ont plus souvent entendre les sons dentaires par rapport aux témoins. Ces représentations sont probables dues à leur mise au point plus élevé sur l’information visuelle.
Vous avez juste regardé les vidéo de JoVE sur l’effet McGurk. Maintenant, vous devriez savoir comment effectuer cette illusion audiovisuelle et concernent des phonèmes pour la production sonore. En outre, vous devez également avoir une meilleure compréhension des interactions entre la vue et l’ouïe, et comment ils peuvent être affectés pendant le développement et l’âge adulte.
Merci de regarder !
La perception du langage – sous une forme parlée – bénéficie des interactions en face à face, car la bouche fournit de bonnes informations visuelles pour articuler des sons spécifiques.
Par exemple, dans une situation rapprochée et dégagée, une personne peut regarder son ami mentionner qu’il va à la plage. Dans ce cas, ils utilisent une entrée visuelle – en observant le mouvement autour des lèvres et de la langue – pour comprendre clairement ce qui a été dit.
Cependant, si l’ami continue de parler à l’abri des regards dans une autre pièce, il pourrait être tenté de regarder la télévision en sourdine et doit donc se fier uniquement à la voix obstruée pour donner un sens au message.
Dans ce cas, ce qui a été dit à la fin de la course, au crochet, a interféré avec le coup de pied silencieux et a été mal interprété comme une tique. Il s’agit d’un exemple de l’effet McGurk, une illusion perceptuelle qui résulte d’un décalage entre les indices sonores et visuels.
Cette vidéo montre comment construire les stimuli audiovisuels pour tester le phénomène découvert à l’origine par McGurk et Macdonald. Il étudie également comment la vision interagit avec la production sonore pour comprendre comment les individus apprennent le langage à un très jeune âge.
Dans cette expérience, les participants sont invités à regarder des vidéos en sourdine, dans lesquelles un mot comme gain est prononcé, tandis qu’un son tel que bane est joué simultanément en arrière-plan. Ensuite, on leur demande de partager ce qu’ils ont entendu.
Pour comprendre le résultat, comment l’illusion est produite, discutons d’abord de la façon dont les phonèmes – les unités minimales des sons de la parole – sont articulés.
Par exemple, bane et gain partagent les mêmes éléments dans toutes les positions, à l’exception des premières, qui sont les sons /b/ et /g/.
Bien que les mots avec ces phonèmes initiaux puissent sembler similaires, lorsque /g/ est affiché et que /b/ est joué, on s’attend à ce que les individus entendent un troisième son complètement différent ?/d/ ?à la place.
La raison pour laquelle /d/ est entendu est due au fait que les trois sont fondamentalement produits de la même manière, avec seulement une petite différence dans l’endroit où le haut-parleur place une obstruction dans le flux d’air, appelé les points d’articulation, ou POA.
Par exemple, lorsqu’un son /b/ est émis, les lèvres fournissent l’obstruction, ce qui entraîne une POA labiale, tandis que pour /g/, on l’appelle palatale à l’arrière de la bouche. Comme pour /d/, la POA est dentaire, une conséquence de la langue touchant les dents supérieures.
Lorsque le cerveau intègre le /g/ visuel et auditif /b/ contradictoire, il conclut que le son final doit se trouver quelque part au milieu des POA, entendant ainsi /d/ et rapportant le mot Dane.
En préparation de la démonstration, procurez-vous un ordinateur sur lequel présenter des vidéos et un smartphone avec une caméra vidéo.
Positionnez d’abord l’appareil photo de manière à ce que votre tête remplisse l’écran. Maintenant, enregistrez quatre clips de 10 secondes, chacun contenant des mots différents qui doivent être répétés 10 fois à raison de 1 mot/s. Assurez-vous de transférer les vidéos de gain et de can sur l’ordinateur pour une lecture visuelle.
Pour mener l’expérience, asseyez un participant devant l’ordinateur. Ouvrez le fichier vidéo pour le mot gain et désactivez l’audio.
Sur le téléphone, ouvrez la vidéo pour bane. Placez-le derrière l’ordinateur de manière à ce que son écran soit caché et que seul le son puisse être entendu clairement.
Demandez au participant de regarder l’écran de l’ordinateur et d’écouter. Ensuite, lisez les deux vidéos simultanément.
À la fin des clips, demandez au participant ce qu’il a entendu. [Le participant dit : « Danois »]. Répétez la procédure en lisant la vidéo du mot can sur l’ordinateur et en présentant l’audio du pan sur le téléphone. Encore une fois, demandez au participant ce qu’il a entendu. [Le participant dit : « bronzage »].
Ici, les mots bane et pan ont été joués à haute voix pendant que le participant regardait le gain et la canette être mis en bouche. En règle générale, lorsqu’un terme avec le phonème /g/ est affiché visuellement et associé au son /b/, les individus entendent /d/.
De même, lorsqu’un mot commençant par /k/ est associé au son /p/, les individus entendront /t/.
La raison d’une telle perception auditive est due à la façon dont les sons sont produits. Le cerveau tente de résoudre les informations contradictoires provenant des yeux en voyant les mouvements labiaux ?/b/ et /p/ ?tandis que les oreilles entendent les unités palatines ?/g/ et /k/. En conséquence, il conclut que les sons doivent se situer au milieu, ce qui entraîne la perception des phonèmes dentaires ?/d/ et /t/.
Maintenant que vous savez comment produire l’effet McGurk, examinons d’autres façons dont les chercheurs utilisent ce phénomène perceptuel pour étudier le développement du langage et les cas dans lesquels l’effet est altéré.
Les nourrissons peuvent même être testés sur l’effet McGurk dès l’âge de cinq mois, lorsqu’ils sont prélinguistiques, en utilisant un paradigme d’accoutumance au regard.
Dans cette procédure, Rosenblum et ses collègues ont présenté à plusieurs reprises aux nourrissons une syllabe particulière, comme va, dans les domaines audio et visuel avant d’introduire des phonèmes non appariés dans une phase de test.
Les nourrissons ont montré des signes d’accoutumance à la réduction du temps de regard et de désaccoutumance, notée par une augmentation de la regardation, lorsque quelque chose d’autre que va était perçu. Ainsi, avant même que les nourrissons ne sachent parler, ils affichent des résultats similaires à ceux des adultes, dans lesquels ils s’appuient sur l’utilisation d’informations visuelles pour la discrimination linguistique.
Cependant, les enfants autistes ont plus de difficulté à manifester l’effet McGurk aussi facilement que les témoins en raison de leur capacité réduite à comprendre et à prêter attention aux composants visuels du visage. Cela indique des différences fondamentales dans le traitement de la parole audiovisuelle, ce qui peut contribuer à leurs difficultés avec le langage et la communication.
Enfin, les patients présentant des lésions dans l’hémisphère gauche – le côté généralement prédominant pour la compréhension et l’apprentissage du langage – utilisent souvent les caractéristiques visuelles du visage pour aider pendant l’orthophonie. Fait intéressant, lorsqu’ils ont été testés sur l’effet McGurk, ils ont plus souvent déclaré entendre des bruits dentaires par rapport aux témoins. De telles perceptions sont probablement dues à leur plus grande concentration sur les informations visuelles.
Vous venez de regarder la vidéo de JoVE sur l’effet McGurk. Maintenant, vous devriez savoir comment mener cette illusion audiovisuelle et relier les phonèmes à la production sonore. De plus, vous devriez également avoir une meilleure compréhension des interactions entre la vision et l’ouïe, et de la façon dont elles peuvent être affectées au cours du développement et de l’âge adulte.
Merci d’avoir regardé !
Related Videos
09:20
Sensation and Perception
12.1K Vues
10:45
Sensation and Perception
18.5K Vues
11:32
Sensation and Perception
14.0K Vues
06:03
Sensation and Perception
7.7K Vues
08:09
Sensation and Perception
19.9K Vues
06:36
Sensation and Perception
18.6K Vues
14:51
Sensation and Perception
14.6K Vues
07:51
Sensation and Perception
16.3K Vues
08:52
Sensation and Perception
17.0K Vues
10:23
Sensation and Perception
6.3K Vues
06:13
Sensation and Perception
16.3K Vues
07:30
Sensation and Perception
15.9K Vues
06:48
Sensation and Perception
25.1K Vues
10:14
Sensation and Perception
7.0K Vues