RESEARCH
Peer reviewed scientific video journal
Video encyclopedia of advanced research methods
Visualizing science through experiment videos
EDUCATION
Video textbooks for undergraduate courses
Visual demonstrations of key scientific experiments
BUSINESS
Video textbooks for business education
OTHERS
Interactive video based quizzes for formative assessments
Products
RESEARCH
JoVE Journal
Peer reviewed scientific video journal
JoVE Encyclopedia of Experiments
Video encyclopedia of advanced research methods
EDUCATION
JoVE Core
Video textbooks for undergraduates
JoVE Science Education
Visual demonstrations of key scientific experiments
JoVE Lab Manual
Videos of experiments for undergraduate lab courses
BUSINESS
JoVE Business
Video textbooks for business education
Solutions
Language
it_IT
Menu
Menu
Menu
Menu
Please note that some of the translations on this page are AI generated. Click here for the English version.
Fonte: Laboratorio di Jonathan Flombaum—Johns Hopkins University
La lingua parlata, una singolare conquista umana, si basa fortemente su meccanismi percettivi specializzati. Una caratteristica importante dei meccanismi di percezione del linguaggio è che si basano contemporaneamente su informazioni uditive e visive. Questo ha senso, perché fino ai tempi moderni, una persona poteva aspettarsi che la maggior parte della lingua sarebbe stata ascoltata nelle interazioni faccia a faccia. E poiché la produzione di suoni vocali specifici richiede un'articolazione precisa, la bocca può fornire buone informazioni visive su ciò che qualcuno sta dicendo. Infatti, con una visione ravvicinata e senza ostacoli del viso di qualcuno, la bocca può spesso fornire segnali visivi migliori rispetto ai segnali uditivi che forniscono segnali uditivi. Il risultato è che il cervello umano favorisce l'input visivo e lo usa per disambiguare l'ambiguità intrinseca nel linguaggio parlato.
Questa dipendenza dall'input visivo per interpretare il suono è stata descritta da Harry McGurk e John Macdonald in un articolo del 1976 intitolato Hearing lips and seeing voices. 1 In quel documento, essi descrivevano un'illusione che sorge a seguito di una mancata corrispondenza tra una registrazione sonora e una registrazione video. Questa illusione è diventata nota come effetto McGurk. Questo video dimostrerà come produrre e interpretare l'effetto McGurk.
1. Stimoli
2. Indurre l'illusione
La percezione del linguaggio, in una forma parlata, beneficia delle interazioni faccia a faccia, poiché la bocca fornisce buone informazioni visive per articolare suoni specifici.
Ad esempio, in una situazione ravvicinata e senza ostacoli, un individuo può guardare il proprio amico menzionare di andare in spiaggia. In questo caso, usano l'input visivo– osservando il movimento intorno alle labbra e alla lingua – per comprendere chiaramente ciò che è stato detto.
Tuttavia, se l'amico continua a parlare fuori dalla vista in un'altra stanza, potrebbe essere tentato di guardare la televisione in sordina e quindi deve fare affidamento esclusivamente sulla voce ostruita per dare un senso al messaggio.
In questo caso, ciò che è stato effettivamente detto all'estremità della coda, pick, ha interferito con il calcio silenzioso ed è stato interpretato erroneamente come tick. Questo è un esempio dell'effetto McGurk, un'illusione percettiva che sorge attraverso una mancata corrispondenza tra segnali sonori e visivi.
Questo video dimostra come costruire gli stimoli audiovisivi per testare il fenomeno originariamente scoperto da McGurk e Macdonald. Studia anche come la visione interagisce con la produzione del suono per capire come gli individui imparano la lingua in età molto giovane.
In questo esperimento, ai partecipanti viene chiesto di guardare video muti, in cui una parola come guadagno viene pronunciata, mentre un suono come bane viene riprodotto contemporaneamente in sottofondo. Successivamente, viene chiesto loro di condividere ciò che hanno sentito.
Per capire il risultato, come viene prodotta l'illusione, discutiamo prima di come i fonemi – le unità minime dei suoni vocali – sono articolati.
Ad esempio, bane e gain condividono gli stessi elementi in tutte le posizioni ad eccezione della prima, che sono i suoni /b/ e /g/.
Sebbene le parole con questi fonemi iniziali possano sembrare simili, quando viene mostrato /g/ e viene riprodotto /b/, ci si aspetta che gli individui sentano un terzo suono completamente diverso.
Il motivo per cui /d/ viene ascoltato è dovuto al fatto che tutti e tre sono fondamentalmente prodotti nello stesso modo, con solo una piccola differenza in cui l'altoparlante pone un'ostruzione nel flusso d'aria, chiamata punti di articolazione o POA.
Ad esempio, quando viene prodotto un suono /b/, le labbra forniscono l'ostruzione, risultando in un POA labiale, mentre per /g/, è indicato come palatale, nella parte posteriore della bocca. Per quanto riguarda /d/, il POA è dentale, una conseguenza della lingua che tocca i denti superiori.
Quando il cervello integra il conflitto visivo /g/ e uditivo /b/, conclude che il suono finale deve trovarsi da qualche parte nel mezzo dei POA, sentendo così /d/ e riportando la parola danese.
In preparazione alla dimostrazione, procuratevi un computer per presentare i video e uno smartphone con una videocamera.
Per prima cosa posiziona la fotocamera in modo che la tua testa riempia il display. Ora, registra quattro clip da 10 s, ognuna contenente parole diverse che dovrebbero essere ripetute 10 volte ad una velocità di 1 parola / s. Assicurati di trasferire i video di guadagno e lattina al computer per la riproduzione visiva.
Per condurre l'esperimento, siediti un partecipante davanti al computer. Apri il file video per il guadagno della parola e disattiva l'audio.
Al telefono, apri il video per la rovina. Posizionalo dietro il computer in modo che il suo schermo sia nascosto e solo il suono possa essere sentito chiaramente.
Istruire il partecipante a guardare il monitor del computer e ascoltare. Quindi, riproduci entrambi i video contemporaneamente.
Quando le clip terminano, chiedi al partecipante cosa ha sentito. [Il partecipante dice: "Dane"]. Ripeti la procedura riproducendo il video della parola può sul computer e presentando l'audio per la panoramica sul telefono. Ancora una volta, interroga il partecipante su ciò che ha sentito. [Il partecipante dice: "abbronzatura"].
Qui, le parole bane e pan sono state suonate ad alta voce mentre il partecipante guardava guadagnare e può essere boccata. In genere, quando un termine con il fonema /g/ viene mostrato visivamente e abbinato al suono /b/, gli individui sentiranno /d/.
Allo stesso modo, quando una parola che inizia con /k/ è abbinata al suono /p/, gli individui sentiranno /t/.
La ragione alla base di tale percezione uditiva è dovuta al modo in cui i suoni vengono prodotti. Il cervello cerca di risolvere le informazioni contrastanti dagli occhi che vedono movimenti labiali - / b / e / p / - mentre le orecchie sentono unità palatali - / g / e / k /. Di conseguenza, conclude che i suoni devono trovarsi nel mezzo, con conseguente percezione dei fonemi dentali —/d/ e /t/.
Ora che hai familiarità con come produrre l'effetto McGurk, diamo un'occhiata ad alcuni altri modi in cui i ricercatori usano questo fenomeno percettivo per indagare sullo sviluppo del linguaggio e sui casi in cui l'effetto è alterato.
I neonati possono anche essere testati sull'effetto McGurk già a cinque mesi di età, quando sono pre-linguistici, usando un paradigma di assuefazione del tempo.
In questa procedura, Rosenblum e colleghi hanno ripetutamente presentato ai bambini una particolare sillaba, come va, sia nel dominio audio che in quello visivo prima di introdurre fonemi non corrispondenti in una fase di test.
I neonati mostravano segni di assuefazione a va – tempi di ricerca ridotti – e disassuefazione, notata come aumento dell'aspetto, quando veniva percepito qualcosa di diverso da va. Pertanto, anche prima che i bambini possano parlare, mostrano risultati simili a quelli degli adulti, in cui si basano sull'uso di informazioni visive per la discriminazione linguistica.
Tuttavia, i bambini con autismo hanno maggiori difficoltà a mostrare l'effetto McGurk con la dovuta facilità dei controlli a causa della loro ridotta capacità di comprendere e occuparsi dei componenti visivi del viso. Ciò indica differenze fondamentali nell'elaborazione del parlato audiovisivo, che possono contribuire alla loro difficoltà con il linguaggio e la comunicazione.
Infine, i pazienti con lesioni nel loro emisfero sinistro - il lato tipicamente predominante per la comprensione e l'apprendimento del linguaggio - spesso usano caratteristiche facciali visive per aiutare durante la logopedia. È interessante notare che, quando testati sull'effetto McGurk, hanno riferito più spesso di sentire suoni dentali rispetto ai controlli. Tali percezioni sono probabilmente dovute alla loro maggiore attenzione alle informazioni visive.
Hai appena visto il video di JoVE sull'effetto McGurk. Ora dovresti sapere come condurre questa illusione audiovisiva e mettere in relazione i fonemi con la produzione del suono. Inoltre, dovresti anche avere una migliore comprensione delle interazioni tra visione e udito e di come possono essere influenzate durante lo sviluppo e l'età adulta.
Grazie per l'attenzione!
La percezione del linguaggio, in forma parlata, beneficia delle interazioni faccia a faccia, poiché la bocca fornisce buone informazioni visive per articolare suoni specifici.
Ad esempio, in una situazione ravvicinata e senza ostacoli, un individuo può guardare il proprio amico menzionare di andare in spiaggia. In questo caso, usano l'input visivo – osservando il movimento intorno alle labbra e alla lingua – per comprendere chiaramente ciò che è stato detto.
Tuttavia, se l'amico continua a parlare in un'altra stanza, potrebbe essere tentato di guardare la televisione disattivata e quindi deve fare affidamento esclusivamente sulla voce ostruita per dare un senso al messaggio.
In questo caso, ciò che è stato effettivamente detto alla fine, plettro, ha interferito con il calcio silenzioso ed è stato erroneamente interpretato come tick. Questo è un esempio dell'effetto McGurk, un'illusione percettiva che nasce da una discrepanza tra segnali sonori e visivi.
Questo video mostra come costruire gli stimoli audiovisivi per testare il fenomeno originariamente scoperto da McGurk e Macdonald. Studia anche come la vista interagisce con la produzione del suono per capire come gli individui imparano il linguaggio in tenera età.
In questo esperimento, ai partecipanti viene chiesto di guardare video in modalità silenziosa, in cui viene pronunciata una parola come guadagno, mentre un suono come bane viene riprodotto contemporaneamente in sottofondo. Successivamente, viene chiesto loro di condividere ciò che hanno sentito.
Per capire il risultato, come viene prodotta l'illusione, discutiamo prima di come sono articolati i fonemi, le unità minime dei suoni del linguaggio.
Ad esempio, bane e gain condividono gli stessi elementi in tutte le posizioni tranne la prima, che sono i suoni /b/ e /g/.
Sebbene le parole con questi fonemi iniziali possano suonare simili, quando viene mostrata /g/ e viene suonata /b/, ci si aspetta che gli individui sentano invece un terzo suono completamente diverso?/d/?.
Il motivo per cui si sente /d/ è dovuto al fatto che tutti e tre sono fondamentalmente prodotti nello stesso modo, con solo una piccola differenza nel punto in cui il parlante pone un'ostruzione nel flusso d'aria, chiamati punti di articolazione, o POA.
Ad esempio, quando viene emesso un suono /b/, le labbra forniscono l'ostruzione, risultando in un POA labiale, mentre per /g/, è indicato come palatale? nella parte posteriore della bocca. Per quanto riguarda /d/, la POA è dentale, una conseguenza del fatto che la lingua tocca i denti superiori.
Quando il cervello integra la /g/ visiva e la /b/ uditiva in conflitto, conclude che il suono finale deve trovarsi da qualche parte nel mezzo delle POA, quindi sente /d/ e riporta la parola Dane.
In preparazione per la dimostrazione, procurati un computer su cui presentare i video e uno smartphone con videocamera.
Per prima cosa posiziona la fotocamera in modo che la tua testa riempia il display. Ora, registra quattro clip di 10 secondi, ognuna contenente parole diverse che dovrebbero essere ripetute 10 volte a una velocità di 1 parola/s. Assicurati di trasferire il guadagno e i video can sul computer per la riproduzione visiva.
Per condurre l'esperimento, fai sedere un partecipante davanti al computer. Apri il file video per il guadagno di parole e disattiva l'audio.
Sul telefono, apri il video per bane. Posizionalo dietro il computer in modo che lo schermo sia nascosto e solo il suono possa essere ascoltato chiaramente.
Chiedi al partecipante di guardare il monitor del computer e ascoltare. Quindi, riproduci entrambi i video contemporaneamente.
Al termine delle clip, chiedi al partecipante cosa ha sentito. [Il partecipante dice: "Dane"]. Ripetere la procedura riproducendo il video della parola can sul computer e presentando l'audio per la panoramica sul telefono. Ancora una volta, interroga il partecipante su ciò che ha sentito. [Il partecipante dice: "abbronzatura"].
Qui, le parole bane e pan sono state suonate ad alta voce mentre il partecipante guardava guadagnare e lattina essere pronunciato. Tipicamente, quando un termine con il fonema /g/ viene mostrato visivamente e abbinato al suono /b/, gli individui sentiranno /d/.
Allo stesso modo, quando una parola che inizia con /k/ è abbinata al suono /p/, gli individui sentiranno /t/.
La ragione di tale percezione uditiva è dovuta al modo in cui vengono prodotti i suoni. Il cervello cerca di risolvere le informazioni contrastanti provenienti dagli occhi che vedono i movimenti labiali?/b/ e /p/?mentre le orecchie sentono le unità palatali?/g/ e /k/. Di conseguenza, si conclude che i suoni devono trovarsi nel mezzo, con conseguente percezione dei fonemi dentali?/d/ e /t/.
Ora che hai familiarità con come produrre l'effetto McGurk, diamo un'occhiata ad alcuni altri modi in cui i ricercatori utilizzano questo fenomeno percettivo per studiare lo sviluppo del linguaggio e i casi in cui l'effetto è alterato.
I neonati possono anche essere testati sull'effetto McGurk già a cinque mesi di età, quando sono pre-linguistici, utilizzando un paradigma di assuefazione del tempo di osservazione.
In questa procedura, Rosenblum e colleghi hanno ripetutamente presentato ai bambini una sillaba particolare, come va, sia nel dominio audio che in quello visivo prima di introdurre fonemi non corrispondenti in una fase di test.
I neonati hanno mostrato segni di assuefazione a va (tempi di sguardo ridotti) e disassuefazione, nota come aumento dello sguardo, quando è stato percepito qualcosa di diverso da va. Pertanto, anche prima che i neonati possano parlare, mostrano risultati simili a quelli degli adulti, in cui si affidano all'uso di informazioni visive per la discriminazione linguistica.
Tuttavia, i bambini con autismo hanno maggiori difficoltà a mostrare l'effetto McGurk con la stessa facilità dei controlli a causa della loro ridotta capacità di comprendere e prestare attenzione alle componenti visive del viso. Ciò indica differenze fondamentali nell'elaborazione del parlato audiovisivo, che possono contribuire alla loro difficoltà con il linguaggio e la comunicazione.
Infine, i pazienti con lesioni nell'emisfero sinistro – il lato tipicamente predominante per la comprensione e l'apprendimento del linguaggio – spesso usano le caratteristiche visive del viso per aiutare durante la logopedia. È interessante notare che, quando sono stati testati sull'effetto McGurk, hanno riferito più spesso di sentire suoni dentali rispetto ai controlli. Tali percezioni sono probabilmente dovute alla loro maggiore attenzione alle informazioni visive.
Hai appena visto il video di JoVE sull'effetto McGurk. Ora dovresti sapere come condurre questa illusione audiovisiva e mettere in relazione i fonemi con la produzione del suono. Inoltre, dovresti anche avere una migliore comprensione delle interazioni tra vista e udito e di come possono essere influenzate durante lo sviluppo e l'età adulta.
Grazie per l'attenzione!
Related Videos
Sensation and Perception
11.6K Visualizzazioni
Sensation and Perception
18.0K Visualizzazioni
Sensation and Perception
13.7K Visualizzazioni
Sensation and Perception
7.3K Visualizzazioni
Sensation and Perception
19.5K Visualizzazioni
Sensation and Perception
18.2K Visualizzazioni
Sensation and Perception
14.0K Visualizzazioni
Sensation and Perception
15.6K Visualizzazioni
Sensation and Perception
16.7K Visualizzazioni
Sensation and Perception
6.1K Visualizzazioni
Sensation and Perception
16.1K Visualizzazioni
Sensation and Perception
16.5K Visualizzazioni
Sensation and Perception
15.7K Visualizzazioni
Sensation and Perception
24.9K Visualizzazioni
Sensation and Perception
6.8K Visualizzazioni