Summary
在3-4个月,听着人与非人灵长类动物发声增强婴幼儿的认知; 6个月,只有人类发声发挥这种认知优势。我们描述揭示的婴幼儿指定经验这听起来链接到认知和调出功能强大的整形角色曝光操作。
Abstract
出生时,婴儿不仅喜欢听人发声,但也已经开始发声这些链接到认知:对于婴儿年仅三个月大时,听人语言支持对象分类,一个核心的认知能力。这个早熟的链接最初是广:在第3和4个月,人类和非人类灵长类动物的发声支持分类。但到了6个月,婴儿已经缩小的链接:只有人类发声支持对象分类。在这里,我们问导游婴幼儿,因为他们调整自己最初广泛链接到一个更精确的一个,只有我们人类的发声接合。在三个研究中,我们使用了一种新的范式曝光考察经验的影响。我们的文件,只是暴露婴儿非人灵长类动物叫声使婴儿保持这种信号和分类之间的早期建立的链路。与此相反,露出婴儿到向后的语音 - 信号失败于任何年龄,以支持分类 - 没有提供这样的优势。我们的研究结果揭示早期经验的功率为婴幼儿指定信号,从最初广泛的,他们将继续链接到认知。
Introduction
人类婴儿出生准备收购的语言,文化和认知工具,我们定义为一个物种,从根本上塑造了我们的发展。中央对我们的学习语言能力的人的发展的两个特点:我们altriciality和我们强大的学习策略。总之,这些功能解锁早期的可塑性,使婴儿是高度切合他们的环境投入相当大的程度。例如,尽管婴儿来到这个世界与一组感知偏好和歧视性的能力足够宽以包括面和人类和非人灵长类动物的声音,在几个月内它们缩小这些偏好为排他性人类信号1,2,3。感知变窄的过程是自适应的在两个方面:它增加相关交际信号R的信噪比12;那些将引导婴幼儿高效准确地定位其复杂的社会世界-它铺平了道路,跨越感性的方式整合信息的方式( 例如 ,整合音容)4 -为人类语言的本质多式联运的一个基本要素。而且,由于婴儿的早期可塑性的,感性变窄可以防止或与暴露于外来的信号( 例如 ,非天然语言,非人脸,外国音乐节拍)5,6,8反转。这说明知觉变窄体验驱动的。
然而,要掌握自己的母语,婴幼儿必须做的比调更多的面孔和其扬声器的声音。人类语言的力量是密不可分的认知9。令人难以置信的是,即使是在生命的第一年,婴儿具有B-EGUN链接语言与认知:只需听人类语言促进婴儿,以形成对象的类别能力,构建块为他们的认知10,11,12。
这并不是说,婴儿只能形成对象的类别,如果他们是听语言。相反,几十年的研究显示,在其生命的最初几个月的婴儿可以形成在没有任何声音,13中的至少一些对象的类别。但并不是所有的对象类别是同样容易对婴儿形成。稍微更困难的类别提供了有力的机会,发现如果有的话,语言可能对婴儿的分类有什么影响。要做到这一点,研究人员识别更难对象类别婴儿在没有其他辅助信息(如语言)识别,然后询问是否语言(和其他声音 )婴幼儿提供任何优势,在分类。
使用这样的逻辑,语言和对象分类之间的早期联系在一个新颖性优先模式设计成适应非常小的婴儿( 图1b)11记录。这种模式有两个阶段。在熟悉阶段,所有婴儿查看一系列不同对象( 例如 ,恐龙)的图像与声音一起顺序地呈现。在测试阶段期间,所有婴儿在沉默查看两个新的图像:一张是现在熟悉的类别( 例如 ,另一恐龙)的一个新成员,而另一个是一个新颖类别的( 例如 ,鱼)的部件。婴儿在测试的寻找时间作为分类的指标。如果婴儿形成熟悉期间的类别,则在测试他们应该从熟悉图像区分小说。如果婴儿不这样做,那么在测试他们应该有机会执行“> 14,15,16。
结果是惊人的。在3,4,和6个月,婴儿熟悉期间收听语言-但不是音调序列-成功地形成对象的类别11,17。出人意料的是,语言是不是发挥这种优势的认知唯一的声音:在第3和4个月,听着非人灵长类动物的发声(马达加斯加,蓝眼睛狐猴:Eulemur狐猿flavifrons)款赋予相同的认知优势,因为人的发声17。 6个月的年龄,但婴幼儿已调整这个最初广泛的人权具体发声的链接;狐猴发声不再会对婴儿分类17的效果。
但是,什么样的机制underlies婴儿增加精度联的语言和认识?在这里,我们考虑的婴儿经历的贡献。请问婴儿与人类语言(和他们的经验,听狐猴叫声缺乏)发挥作用,因为它们最初缩小特权信号( 例如 ,人与非人灵长类动物发声)和对象分类的核心认知过程之间的联系 ,丰富的经验?当然,我们无法通过操纵婴儿接触到的语言进行测试。但是,我们可以操纵他们接触到狐猴发声。我们专注于婴幼儿在6和7个月的婴儿-婴儿谁,在没有曝光,不再联系狐猴发声和对象分类17。在实验1中,我们要求短暂暴露于狐猴的叫声是否允许他们保持这种信号和对象分类之间的联系。在实验2中,我们询问是否短暂暴露于落后的演讲 - 这始终未能支持对象范畴上的信号在化17任何年龄-也促进了对象分类。在实验3,我们把暴露的问题,以更严格的测试,考察更长时间暴露在狐猴叫声是否允许他们保留其最初宽泛的链接。
Subscription Required. Please recommend JoVE to your librarian.
Protocol
下面的步骤是由西北大学机构审查委员会批准,并从所有婴幼儿的照顾者获得了知情同意书。我们招募被提出婴幼儿的环境中有超过50%的接触英语11,17。在所有实验婴幼儿先听取了我们的操作曝光向狐猴发声或向后讲话配乐;然后,他们参加了一个对象分类的任务。什么跨婴儿变化是(A)他们在曝光操作听到信号的类型和分类任务(无论是狐猴的叫声或向后语音)和(b)的曝光阶段的程度(在实验室或者短暂暴露或长时间曝光在家)。对于所有婴儿,分类任务发生在实验室。
1.材料
- 如何创建曝光操作
- 选择8个不同的狐猴发声的样品和8个不同的反向语音的样本,每2至4秒的持续时间。在一起时,8个样品应产生每个声信号的30秒。确保狐猴和向后的语音段作为紧密匹配尽可能为持续时间( 例如 ,〜3秒的持续时间)和用于平均频率( 例如 ,〜300赫兹)。
- 为了获得狐猴叫声,搜索动物发声的数据库或咨询研究员谁收集的动物的叫声。
- 要建立落后的声音片段,使用一台笔记本电脑和一个软件程序( 例如 ,无畏)(1)记录的研究助理说〜婴儿定向语音和(2)时间上逆向3秒的句子(在Audacity中:效果>反向)每个语音段。
- 选择一首经典器乐比4分钟长的。在这里,我们使用在C小调,作品18第4号贝多芬四重奏的前4分钟:III。Menuetto。
- 使用音频编辑软件程序( 例如 ,无畏)导入的音乐(在Audacity中:文件>导入),选择一块的持续时间大约4分钟的一部分(突出显示和删除片的其余部分)。
- 通过插入( 即 ,复制和粘贴)每种类型的8个选定段(发声狐猴或向后语音)到音乐声道创建2个不同的音轨。
- 要创建“狐猴”的配乐,在相同的软件程序( 例如 ,无畏)打开8狐猴发声的声音文件,并将其插入到与音乐文件。
- 要做到这一点,突出整个狐猴发声,导航到编辑>复制,将在音乐文件中的光标,并导航到编辑>粘贴。插入不定期的发声整个配乐。不要将它们放置在乐句边界。这样做两次,每次狐猴发声,inserti在一个pseudorandomized顺序纳克它们,以确保发生在一行没有2周相同的发声。总之,这产生了5分钟循环(音乐的4分钟,用狐猴发声的1分钟穿插)。
- 从而使整个音带持续大约10分钟,重复该5分钟的音乐。为了这样做,突出显示整个5分钟部,导航到编辑>复制,将光标放置在5分钟部的端部,并导航到编辑>粘贴。
- 以产生10分钟“向后”讲话配乐,替换狐猴音带与向后语音的选择段的每个狐猴发声,使用相同的pseudorandomized顺序。
- 选择8个不同的狐猴发声的样品和8个不同的反向语音的样本,每2至4秒的持续时间。在一起时,8个样品应产生每个声信号的30秒。确保狐猴和向后的语音段作为紧密匹配尽可能为持续时间( 例如 ,〜3秒的持续时间)和用于平均频率( 例如 ,〜300赫兹)。
- 如何创建分类任务
- 视觉材料:手工创建2套线图纸。在每组中,包括相同对象类别的成员9(这里,使用9个不同恐龙的附图和9张不同的鱼图纸)。使用differenŤ明亮的颜色对于给定类别内的每个图形。扫描这些图纸到计算机并保存为图像文件。需要注意的是,图纸应在测试的年龄不熟悉的物体婴儿。
- 声学材料:选择一个狐猴发声和不包括在任一曝光操作(1.1.3)中的一个向后语音段。尽可能接近地匹配狐猴和向后的语音段为持续时间( 例如 ,〜3秒的持续时间)和用于平均频率( 例如 ,〜300赫兹)。
- 程序MATLAB任务包括熟悉阶段和测试阶段;这项任务将由5英尺屏幕在婴儿面前投射到5英尺
- 编程熟悉阶段,使得来自单个类别视觉范例的8( 例如 ,8个恐龙,每一个不同的颜色)依次出现。每个示例性应显示20秒,在右侧或屏幕的左侧,以交替的方式。科瑞e 2级的不同的版本中,每个配对熟悉范例下面(“狐猴”和“向后”讲话的条件下,分别地)的声刺激中的一个。在这两种情况下,应该对每个熟悉试验中出现两次的声刺激;一旦当视觉典范出现,并再次10秒后。
- 在狐猴条件下,程序中的每个熟悉范例与一个狐猴发声同时出现。
- 在反向语音状态,程序中的每个熟悉范例同时与一个后向语音段出现。
- 在测试阶段期间,从熟悉类别( 例如 ,另一个恐龙)和来自其他类别的示例性( 例如 ,鱼)呈现第 9典范。这两个图像的颜色应相同,并且同时呈现(一个呈现在右侧,另一个在屏幕的左侧)在沉默20秒。
- 编程熟悉阶段,使得来自单个类别视觉范例的8( 例如 ,8个恐龙,每一个不同的颜色)依次出现。每个示例性应显示20秒,在右侧或屏幕的左侧,以交替的方式。科瑞e 2级的不同的版本中,每个配对熟悉范例下面(“狐猴”和“向后”讲话的条件下,分别地)的声刺激中的一个。在这两种情况下,应该对每个熟悉试验中出现两次的声刺激;一旦当视觉典范出现,并再次10秒后。
- 在编程的分类任务,平衡(1),其类将在熟悉阶段,(2)在其上第一熟悉图像出现在侧面,和(3)的一侧在其上新的和熟悉测试图像将出现呈现。
2.一般程序
- 曝光阶段
- 将婴儿靠近看护人或在他们的腿上在一个安静的区域。放置一个膝上型或平板婴儿的观看范围(从1到从婴儿4英尺)之内。
- 使用笔记本电脑或平板电脑呈现无论是狐猴或向后语音配乐。
- 分类任务
- 在实验室中较暗的试验室,一个椅子上通过5英尺屏幕从5英尺4英尺座位护理人员。笔记本电脑连接在MATLAB编程为(1)屏幕中的分类的任务,将显示该分类任务以及(2)一幻灯构造函数,将项目任务到屏幕上。
- 席位照顾者的腿上婴儿,朝前。
- 指导护理人员以避免以任何方式影响婴儿的行为。更具体地讲,指示他们保持安静,还在整个任务的持续时间,并保持他们的婴儿为中心,用他们的中线为指导。提供有一对涂黑的眼镜护理人员,以确保它们不能看到视觉材料。
- 打开投影机。
- 打开录音设备来捕获整个任务婴儿的行为。
- 在MATLAB按下“运行”开始分类任务:目前狐猴条件,如果婴儿暴露于狐猴的配乐,如果婴儿暴露于向后讲话原声语音落后状态。
- 编码(仅适用于分类任务)
- 代码的开始和每个婴儿乐偏移英尺,在双方的熟悉和测试阶段看起来是对的。
- 排除婴儿谁(1)看熟悉的范例小于6; (2)熟悉阶段的小于40%时的样子。另外,还要排除婴儿,如果有父母干涉,实验误差或技术故障,或如果在测试其性能与平均值大于2 SD。
- 分析
- 对于熟悉阶段,计算总的时间每个婴儿看了熟悉对象的量。
- 对于测试阶段,计算每个婴儿的偏好得分:(总的寻找时间新型测试图像)/(总的寻找时间以两个测试图像)。
3.实验1:短暂暴露于狐猴发声
- 参与者
- 在6〜7个月的年龄招收14名婴儿。
- 程序
- 邀请日Ë照顾者和婴儿成一个安静,舒适的房间。在我们的实验室,这个房间是相邻的考场。
- 曝光操作:播放狐猴配乐一次,用音乐可视化工具( 例如 iTunes)出现在屏幕上。
- 分类任务:当配乐完成后,指导护理人员和婴儿带入考场。开始分类任务(狐猴条件)。
4.实验2:短暂暴露于向后语音
- 参与者
- 相同实验1。
- 程序
- 邀请看护者和婴幼儿到一个安静,舒适的房间。
- 曝光操作:播放向后语音配乐一次,出现在屏幕上的音乐可视化。
- 分类任务:当配乐完成后,指导护理人员和婴儿带入考场。开始分类任务(BackwaRD语音条件)。
5.实验3:长时间暴露于狐猴发声
- 参与者
- 在4.5个月的年龄招收14名婴儿。
- 程序
- 通过电话,邀请护理人员参加6周之久的研究。解释说,这项研究需要他们暴露自己的婴儿,在家中,在10分钟的配乐包含音乐的8分钟和狐猴发声的2分钟( 即狐猴配乐)。解释说,这项研究持续了6周,当婴儿为4.5个月,自当婴儿6月龄结束。
- 提供与此精确锥形时间表7,8,18护理人员
- 第1周:播放电影配乐婴儿每天一次,每一天。
- 第2周:播放电影配乐婴儿隔日一次。
- 4-6周:每周播放配乐婴儿的2倍。
- 为了确保曝光操作的整个6周的曝光操作的保真度,与照顾者共享在线交互式文档(一)在整个6周时期和(b)要求他们记录每一个日期和时间的每一步概括自己的角色他们扮演的配乐,以他们的婴儿。
- 通过电话或电子邮件每周发送提醒保持护理人员从事和轨道上。
- 在5周,安排下一周(6周)实验室参观。指导,婴儿应该听配乐他们预定的实验室访问前2〜4天护理人员;婴儿不应该听配乐无论是在当天或他们的访问的前一天。
注:在实验室参观,没有曝光操作:婴幼儿只有在从Experimen分类任务参与T 1(狐猴条件)。
Subscription Required. Please recommend JoVE to your librarian.
Representative Results
使用以上( 图1)中列出的程序,我们跑了三个实验来测试曝光的效果婴儿细化某些声音和认知之间的联系。
实验1的结果表明,短暂暴露于狐猴的叫声了惊人的效果。七暴露于狐猴发声月婴儿可靠地优选的新型测试图像,M = 0.57, 标准差 = 0.09; T(13)= 3.12,P = 0.008,D = 1.73( 图2)。他们在形成物体类别成功与婴儿不这样做不接触,在之后,他们已经调整了狐猴的叫声17年龄发散。相比之下,实验2的结果表明,短暂暴露于落后的言论是没有效果的。暴露在落后的讲话七个月的孩子在机会执行,M = 0.47,SD = 0.11; T(13)= -0.98,p值= 0.34,D = 0.54( 图2)。他们的机会表现反映的是谁得不到曝光17名婴儿的。重要的是,婴儿的成功归类在实验1和失败的实验2中不能与两个信号在其视觉参与不同的结果:在两个实验中,有婴幼儿无差异熟悉,t期间平均累计寻找倍( 26)= 1.5,p = 0.14。
一起,从实验1和2结果表明,仅仅暴露婴儿到那些曾经婴儿最初宽模板部分的信号 - 这还但不是信号 - 使婴儿到恢复这些信号和认知之间的链接。接下来,我们测试的曝光的效果的鲁棒性初始特权信号。
(M = 2天,SD = 2天),仍然成功地形成对象类别,M = 0.59, 标准差 = 0.14,T(13)= 2.52,p = 0.026,D = 1.4( 图2)。他们成功的分类是平行谁分类任务(实验1)以前也听说过狐猴发声的时刻婴儿,T(22.1)= 0.44,P = 0.66。
图1:实验设计。在曝光阶段(A),婴幼儿听取狐猴发声(实验1和3)或2向后的语音段的最小的任2分钟(Experim ENT 2),嵌入式古典音乐的10分钟内的配乐。在曝光之后,婴儿参加从码头等人的分类任务(B)。 ,2013年在熟悉,每个婴儿从相同类别观看8张不同的可视图像(每20秒),呈现顺序,与任一一个狐猴发声(实验1和3)或向后讲话片段(实验2)结合使用。曝光从那些在分类任务呈现不同期间呈现的信号;在后者中,相同的信号(无论是狐猴呼叫或向后语音段),每个熟悉试验期间提出的两倍。在试验(20秒),观察婴儿2个图像 - 现在熟悉的类别的一个新的构件和新的类别的成员 - 在沉默同时呈现。 请点击此处查看该图的放大版本。
图2:婴幼儿在横跨实验测试偏好分数。婴儿暴露于狐猴发声(实验1和3)可靠地优选的新型测试图像,表明它们已经形成的对象类别。与此相反,暴露于向后语音(实验2)在婴幼儿机会执行。误差棒代表±SEM 1。偏好得分和机会性能(0.50)之间和测试条件之间显著差异由单个星号(P <0.05)或双星号(P <0.01)显着。 请点击此处查看该图的放大版本。
Subscription Required. Please recommend JoVE to your librarian.
Discussion
在这里,我们勾勒出可用于在婴儿期及早联的声音和核心认知过程的体验角色的过程。我们的组合的实验记录了第一个证据经验起着引导婴儿到指定信号,从广泛的初始集合的可能性的中心作用,它们将利用核心概念流程,最终提供的含义的基础。他们还揭示了先天和后天之间错综复杂的接口:虽然经验起到多大的作用,如果有的话,在确定广泛的,婴儿最初链接到认知的17个信号,经验是从最初的特权引导幼儿调出不相干的信号至关重要设置,相反,调成的,他们将继续链接到的含义。
我们接触的过程已经证明,在6,7个月的时候狐猴发声和对象分类之间的联系将OTHerwise已被切断17,仅仅暴露婴儿到这个信号具有显着的影响。正如同样在被感知变窄文献观察到5,6,7,8,该曝光程序演示婴儿的可塑性,从而允许他们要么恢复或维持发育现有链路(实验1,3)。它也确定对种信号原则性限制,仅仅暴露可能采取行动。对于不包括在婴儿的初始禀赋信号( 例如 ,语音向后),单独的经验似乎是不够的,用于创建, 从头,一个链接到认知(实验2)。
我们的协议的三个方面是用于解释对婴幼儿采集声音信号和认知之间日益精确的环节暴露的影响是至关重要的。第一,曝光操作过程中,信号必须被嵌入一个非社会环境中(我们选择古典音乐)从事婴幼儿的注意力,而不会引入社会或交际线索。第二,曝光操作必须包括声学信号(我们使用8)的几种不同的样本;这样的变化有助于保持从事听力任务婴儿。三,分类任务期间提出的声音不能是一个婴儿早期曝光操作听到。
重要的是,我们的曝光操作也打开了今后的工作中几个新的途径。是否有调整特权信号和认知之间的联系的关键时期?还有哪些认知能力,如果有的话,这些信号支持?什么意思是“特权信号?”目前的结果表示在确定暴露于某些环境信号如何引导婴儿识别的重要的第一步,其那些符号的ALS最终将携带之意;进一步的研究将有助于绘制微妙的平衡的更细致入微的画面,层层叠叠的婴儿天生的能力和他们的环境,它们共同脚手架他们的语言习得的基础之间的相互作用。
Subscription Required. Please recommend JoVE to your librarian.
Disclosures
作者什么都没有透露。
Acknowledgments
这项研究是由美国国家科学基金会的研究生研究奖学金到达尼埃尔·R·珀欣齐克和美国国立卫生研究院资助桑德拉·韦克斯曼R.(R01HD083310)的支持。
Materials
Name | Company | Catalog Number | Comments |
Laptop 1 | Use for presenting exposure soundtrack; preferably using iTunes Visualizer | ||
Laptop 2 | Use for programming and presenting categorization task | ||
Laptop 3 (optional) | Use for coding infant looking behavior (can also use one of the above laptops) | ||
Coding software | SuperCoder | Use for coding infant looking behavior | |
Video recorder | Use for recording infants' face (looking behavior during categorization task) | ||
Mixer | Use for integrating information from the video recorder (infant looking behavior) and the visual stimuli (categorization task) | ||
DVD player | Use for recording the input from the video recorder (infant looking behavior) | ||
Television | Use for viewing input from mixer (screen-in-screen; categorization task in corner of screen showing infant looking behavior) | ||
Projector | Use for projecting visual stimuli of categorization task on screen | ||
Speakers | Use for presenting auditory stimuli during categorization task | ||
Blacked-out sunglasses | Use for blocking caretaker's vision during categorization task | ||
Statistical analysis software | R | Use for analyzing infant looking behavior |
References
- Di Giorgio, E., Leo, I., Pascalis, O., Simion, F. Is the face-perception system human-specific at birth. Dev psychol. 48 (4), 1083-1090 (2012).
- Vouloumanos, A., Hauser, M. D., Werker, J. F., Martin, A. The tuning of human neonates' preference for speech. Child dev. 81 (2), 517-527 (2010).
- Vouloumanos, A., Werker, J. F. Tuned to the signal: the privileged status of speech for young infants. Dev sci. 7 (3), 270-276 (2004).
- Lewkowicz, D. J., Ghazanfar, A. A. The emergence of multisensory systems through perceptual narrowing. Trends cogn sci. 13 (11), 470-478 (2009).
- Fair, J., Flom, R., Jones, J., Martin, J. Perceptual Learning: 12-Month-Olds' Discrimination of Monkey Faces. Child dev. 83 (6), 1996-2006 (2012).
- Friendly, R. H., Rendall, D., Trainor, L. J. Plasticity after perceptual narrowing for voice perception: reinstating the ability to discriminate monkeys by their voices at 12 months of age. Frontiers in psychology. 4, October 718 (2013).
- Pascalis, O., Scott, L. S., et al. Plasticity of face processing in infancy. Proc Natl Acad Sci USA. 102 (14), 5297-5300 (2005).
- Heron-Delaney, M., Anzures, G., et al. Perceptual training prevents the emergence of the other race effect during infancy. PloS one. 6 (5), 19858 (2011).
- Brown, R. Words and things: An introduction to language. , The Free Press. Glencoe, IL. (1958).
- Fulkerson, A. L., Waxman, S. R. Words (but not tones) facilitate object categorization: Evidence from 6- and 12-month-olds. Cognition. 105 (1), 218-228 (2007).
- Ferry, A. L., Hespos, S. J., Waxman, S. R. Categorization in 3- and 4-month-old infants: An advantage of words over tones. Child dev. 81 (2), 472-479 (2010).
- Balaban, M. T., Waxman, S. R. Do words facilitate object categorization in 9-month-old infants. J exp child psychol. 64, 3-26 (1997).
- Mareschal, D., Quinn, P. C. Categorization in infancy. Trends Cogn Sci. 5 (10), 443-450 (2001).
- Aslin, R. N. What's in a look. Dev sci. 10 (1), 48-53 (2007).
- Colombo, J. Infant attention grows up: The emergence of a developmental cognitive neuroscience perspective. Curr Dir Psychol Sci. 11 (6), 196-200 (2002).
- Golinkoff, R. M., Hirsh-Pasek, K., Cauley, K. M., Gordon, L. The eyes have it: lexical and syntactic comprehension in a new paradigm. J child language. 14 (1), 23-45 (1987).
- Ferry, A. L., Hespos, S. J., Waxman, S. R. Nonhuman primate vocalizations support categorization in very young human infants. Proc Natl Acad Sci. , 1-5 (2013).
- Scott, L. S., Monesson, A. The origin of biases in face perception. Psychol sci. 20 (6), 676-680 (2009).