转载来源
公众号:论智
来源:Medium
“
阅读本文大概需要 3 分钟。
”
编者按:Google 产品经理 Yariv Adan 讨论了困惑很多人的问题:人工神经网络和人类大脑中的神经网络到底有多像?
人工神经网络和机器学习已经成为大众媒体的热门主题。智能机器这一想法勾起了很多人的想象,而且人们特别喜欢把它和人类放一起比较。特别是有一个关于人工智能的底层机制的基础问题经常出现——这些人工神经网络的工作方式真的和我们大脑中的神经元相似吗?
不。尽管从高层概念上说,ANN(人工神经网络)受到了大脑中的神经元和神经网络的启发,但这些概念的ML实现和大脑的工作方式大有径庭。不仅如此,随着这些年来 ML 领域的进展,新的复杂想法和技术的提出(RNN、GAN等)——这一联系进一步削弱了。
前馈全连接网络的高层架构和一般原则体现了人工神经网络和大脑中的神经网络的相似性。
从高层看,大脑的神经元由三部分组成:
类似地,ANN 中也有等价的结构:
类似地,卷积神经网络借鉴了视觉通路。很酷的一件事情是,CNN 原本主要借鉴的是架构(对应特定形状或模式的较小的核/过滤器,每次应用于较小的区域)。然而,多年之后,当 ML 研究人员开发了新的可视化 CNN 隐藏层的技术后,人们发现 CNN 表示图像的方式和视皮层的层次表示十分类似——从表示简单模式的第一层开始,较深的层复合出复杂形状和对象。
可塑性 —— 大脑的独特性质之一,学习和记忆得以成立的关键特性。大脑基于经历创建新的脉冲连接,废弃旧的脉冲连接,加强或削弱现有的连接。可塑性甚至在单个神经元中起作用——影响它的电磁行为,以及对特定输入作出回应触发激活的趋向。
可塑性这一想法是训练 ANN 的关键原则——基于批次输入迭代修改网络参数(权重)。最近,元学习领域的进展将 ANN 中可塑性的应用范围从参数拓展到超参数乃至整个模型。
大脑神经元的复杂性和鲁棒性要比人工神经元复杂强大得多。这不仅体现在神经元的数量及每个神经元的树突数量上——比我们现在的 ANN 高出若干数量级,还体现在单个神经元的内部复杂性上:和人工神经元相比,神经元的化学和电学机制精细得多,也强健得多。例如,神经元不是零电位差的——细胞的不同区域可能具有不同的电位,有不同的电流通过。这让单个神经元可以进行非线性运算,识别随着时间发生的变动(例如,移动的目标),或者将不同的区域并行映射至不同的树突区域——这样整个细胞就可以完成复杂的复合任务。和非常简单的人造神经元相比,这些都是高级很多的结构和能力。
实现 —— 大脑中的神经元是以非常复杂和精细的机制实现的,可以进行非常复杂的非线性计算:
和这些相比,ANN 中使用的参数、权重、线性函数、激活函数十分简单粗暴。
在此之上,大脑中的神经元的整体架构要比大多数 ANN 复杂得多,特别是和常见的前馈网络相比(前馈网络的每一层只和前一层、后一层连接)。不过,即使是和多层 RNN 或者残差网络相比,大脑中的神经元网络也是不可思议地复杂,在许多方向上有着数万跨“层”、跨区域的树突。
另一方面,大脑不太可能使用反向传播这样的方法——基于误差函数的偏导数上的链式法则。
能源消耗 —— 大脑是一个极端高效的计算机,差不多十瓦左右,约为单个 CPU 能耗的三分之一。
GAN、RL、RNN等新进展 —— 在 ML 的理论和应用上,都不断涌现新的想法和创新。这些都不再基于大脑的工作机制。它们也许受到了大脑的启发,或者人类行为的启发,但在许多方面,现在的 ML 方面的研究和工作过着属于自己的生活——迎接自身的挑战,追寻自身的机遇。
尽管有上面列出的这些不同,ML 研究仍然不断将大脑列为灵感来源,因为大脑比我们现有的计算设备要强健和高效太多。认识人工神经网络和大脑的差距,以及关于大脑机制的研究,激发了一些最激动人心也最具挑战性的 ML 近期研究。例如:
最后,这当然不可能是一个全面的答案,明显还有很多我没提到的相似性和区别。例如,来自多伦多的 Blake Richards 做了一个很棒的简短演讲:https://youtu.be/vGFq6vQ_gR4 从一个新颖独特的角度陈述了大脑和深度学习在原则上的相似性。事实上,这一问题是我们的时代最激动人心、最复杂、进展最快的两个研究领域的交汇之处,所以你可以期望在未来我们会了解更多。
原文地址:https://medium.com/swlh/do-neural-networks-really-work-like-neurons-667859dbfb4f