Fonte: Laboratorio di Jonathan Flombaum—Johns Hopkins University
La lingua parlata, una singolare conquista umana, si basa fortemente su meccanismi percettivi specializzati. Una caratteristica importante dei meccanismi di percezione del linguaggio è che si basano contemporaneamente su informazioni uditive e visive. Questo ha senso, perché fino ai tempi moderni, una persona poteva aspettarsi che la maggior parte della lingua sarebbe stata ascoltata nelle interazioni faccia a faccia. E poiché la produzione di suoni vocali specifici richiede un’articolazione precisa, la bocca può fornire buone informazioni visive su ciò che qualcuno sta dicendo. Infatti, con una visione ravvicinata e senza ostacoli del viso di qualcuno, la bocca può spesso fornire segnali visivi migliori rispetto ai segnali uditivi che forniscono segnali uditivi. Il risultato è che il cervello umano favorisce l’input visivo e lo usa per disambiguare l’ambiguità intrinseca nel linguaggio parlato.
Questa dipendenza dall’input visivo per interpretare il suono è stata descritta da Harry McGurk e John Macdonald in un articolo del 1976 intitolato Hearing lips and seeing voices. 1 In quel documento, essi descrivevano un’illusione che sorge a seguito di una mancata corrispondenza tra una registrazione sonora e una registrazione video. Questa illusione è diventata nota come effetto McGurk. Questo video dimostrerà come produrre e interpretare l’effetto McGurk.
Un posto in cui l’effetto McGurk è stato importante è capire come i bambini molto piccoli imparano la lingua parlata. Uno studio del 1997 è stato in grado di dimostrare che anche i bambini di 5 mesi percepiscono l’effetto McGurk. 2 Questo è importante perché suggerisce che le informazioni visive possono essere utilizzate dai neonati per risolvere una grande sfida all’apprendimento della lingua: analizzare un flusso audio continuo nelle sue unità. Pensa a come una lingua straniera parlata alla sua velocit…