麻省理工学院的研究人员使用称为深度神经网络的机器学习系统,创建了第一个模型,该模型可以复制人类在听觉任务(例如识别音乐流派)上的表现。
该模型由多层信息处理单元组成,可以对大量数据进行训练以执行特定任务,研究人员使用该模型来阐明人脑如何执行相同任务。
“这些模型首次为我们提供了可以执行对人类重要的感官任务并且在人类层面上可以完成的感官任务的机器系统,” Frederick A.和Carole J. Middleton神经科学助理教授Josh McDermott说。在麻省理工学院的脑与认知科学系任研究的高级作者。“从历史上看,这种感觉处理一直很难理解,部分原因是我们还没有真正清楚的理论基础和开发可能发生的情况的模型的好方法。”
这项研究发表在4月19日的《神经元》上,也提供了证据,证明人类听觉皮层像视觉皮层一样是按等级组织排列的。在这种类型的布置中,感官信息经过连续的处理阶段,其中较早地处理了基本信息,而在较后的阶段中提取了更高级的功能,例如单词含义。
麻省理工学院研究生Alexander Kell和斯坦福大学助理教授Daniel Yamins是该论文的主要作者。其他作者是前麻省理工学院访问学生埃里卡·舒克(Erica Shook)和前麻省理工学院博士后山姆·诺曼·海涅格(Sam Norman-Haignere)。
当深度神经网络在1980年代首次开发时,神经科学家希望这种系统可以用于对人脑建模。但是,那个时代的计算机功能不足,无法构建足以执行诸如对象识别或语音识别之类的实际任务的模型。
在过去的五年中,计算能力和神经网络技术的进步使得使用神经网络执行困难的现实任务成为可能,并且它们已成为许多工程应用中的标准方法。同时,一些神经科学家重新考虑了将这些系统用于人脑建模的可能性。
“这对于神经科学来说是一个令人兴奋的机会,因为我们实际上可以创建一个可以完成人们可以做的事情的系统,然后我们可以查询这些模型并将它们与大脑进行比较,” Kell说。
麻省理工学院的研究人员训练了他们的神经网络来执行两项听觉任务,一项涉及语音,另一项涉及音乐。对于语音任务,研究人员为该模型提供了成千上万个两秒钟的谈话记录。任务是识别剪辑中间的单词。对于音乐任务,要求模型识别两秒钟的音乐片段的类型。每个剪辑还包含背景噪声,以使任务更加逼真(也更加困难)。
标签: 神经计算机
免责声明:本文由用户上传,如有侵权请联系删除!