使用称为深度神经网络的机器学习系统,麻省理工学院的研究人员创造了第一个能够在听觉任务中复制人类表现的模型,例如识别音乐类型。
该模型由多层信息处理单元组成,可以对大量数据进行训练以执行特定任务,研究人员使用该模型来阐明人类大脑如何执行相同的任务。
“这些模型首次为我们提供的机器系统能够执行对人类至关重要的感官任务,并且在人类层面上这样做,”Frederick A.和Carole J. Middleton神经科学助理教授Josh McDermott说。在麻省理工学院的脑与认知科学系和该研究的高级作者。“从历史上看,这种类型的感官处理很难理解,部分原因是我们没有真正的理论基础和开发可能发生的模型的好方法。”
当深度神经网络在20世纪80年代首次发展时,神经科学家希望这种系统可用于模拟人类大脑。然而,那个时代的计算机并不足以构建足够大的模型来执行对象识别或语音识别等现实任务。
“这是听觉神经科学中一直存在的谜团:早期听觉皮层与高听觉皮层的区别是什么?这是我见过的第一篇有关计算假设的论文,“Huth说,他没有参与这项研究。作者现在计划开发能够执行其他类型听觉任务的模型,例如确定特定声音的来源,探索这些任务是否可以通过此模型中确定的路径完成,或者是否需要单独的路径,然后可以在大脑中进行调查。
领取专属 10元无门槛券
私享最新 技术干货