AI工程师用一种叫做反向传回的强大算法解决了机器的信用分配问题,该算法于1986年通过杰弗里·欣顿、大卫·鲁梅尔哈特和罗纳德·威廉姆斯的作品推广。它现在是在最成功的人工智能系统(称为深度神经网络)中为学习提供动力的主力,这些系统在其输入和输出层之间隐藏着一层人工"神经元"。现在,在5月份发表在《自然神经科学》杂志上的一篇论文中,科学家们可能终于找到了一种相当于活的大脑,可以实时工作。
由渥太华大学的理查德·瑙德和麦吉尔大学的布莱克·理查兹以及魁北克的Mila AI研究所领导的一个研究小组揭示了大脑学习算法的新模型,该模型可以模拟后传过程。它看起来如此现实,实验神经科学家已经注意到,现在有兴趣研究真正的神经元,以找出大脑是否真的这样做。
柏林洪堡大学的实验神经学家马修·拉库姆说:"来自理论方面的想法可以推动做困难的实验,而对于我的钱,本文就为此越过了障碍。"这在生物学上是合理的,可能会产生巨大的影响。
然而,这两个过程并不完全相同。当深层神经网络被训练识别图像时,它分两个阶段进行:先向前传播,然后向后传播,当"学习"发生时。在第一阶段,输入层中的神经元会编码图像的特征并将其传递。然后隐藏层中的神经元执行计算,并将结果发送到输出层,输出层吐出对图像的预测,如"猫"。但是,如果图像实际上是狗,那么它是由后传算法进来,并通过调整连接神经元的重量来修复出了什么问题。
这些变化基于计算每个神经元如何减少对整体误差的贡献,从顶部的神经元开始,最接近输出层,然后向后移动穿过每个层。例如,如果反增位算法估计增加给定神经元的活动将改善输出预测,那么该神经元的重量将增加。目标是改变神经网络中的所有连接-每个连接在正确的方向一点点-直到输出预测更频繁地正确。
AI的研究人员也很兴奋,因为弄清楚大脑的近似背投如何最终也能改善人工智能系统的学习方式。荷兰拉德布德大学唐德斯研究所人工智能系主任马塞尔·范格文说:"如果我们理解它,那么这最终可能导致能够像大脑一样高效地解决计算问题的系统。
新模型表明,神经科学和人工智能之间的伙伴关系也可以超越我们对每一个单独的理解,而是找到大脑和机器能够学到任何东西所必需的一般原则。
领取专属 10元无门槛券
私享最新 技术干货