类脑计算机最终的目标是在与人脑同样的体积和能耗下达到类似的神经元和突触的处理速度,从而具备较强的智能处理能力。达到这个目标需要多方面的努力。
在体系结构上,应当脚踏实地,基于现有成熟的CMOS器件工艺,面向智能处理效果最好、应用面最广泛的神经网络模型(目前是深度学习)。通过设计专门的指令集、微结构、人工神经元电路、存储层次,有可能在3~5年内将深度学习模型的类脑计算机的智能处理效率提升万倍(相对于谷歌大脑)。提升万倍的意义在于,可以把谷歌大脑这样的深度学习超级计算机放到手机中,帮助我们本地、实时完成各种图像、语音和文本的理解和识别;更重要的是,具备实时训练的能力之后,就可以不间断地通过观察人的行为不断提升其能力,成为我们生活中离不开的智能助理。
在算法层面上,可以更开放地探索各种不同的神经网络模型,不仅仅是深度学习这样的人工神经网络模型,现在还不成熟的脉冲神经网络模型也值得探索。科学的发展路径往往会出人意料。在5年之后,或许最好的神经网络模型不再是今天的深度学习。到那时,类脑计算机的体系结构必须相应地进行调整(甚至革命)来支持新的最好的神经网络模型。
在器件层面上,忆阻器和ReRAM等新器件可能带来更高的存储密度,使一些新的类脑计算机体系结构成为可能。但是,这些器件的研究离成为市场上可以大规模广泛使用的成熟技术还有很大的差距,甚至有很大的风险。在历史上,已经有很多当时看上去很有希望的新器件,最终并未达到人们的期望,未能走向市场。因此,把当前类脑计算机的研究押宝在新器件上风险较大。一个比较稳健的策略是将忆阻器和ReRAM等新器件当作5-10年后类脑计算机研究的重要技术储备。
领取专属 10元无门槛券
私享最新 技术干货