首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

周军:人工智能芯片技术发展趋势及成都发展建议

近年来,人工智能和芯片设计成为了科技界和产业界排名前列的热搜词。二者的结合——人工智能芯片,更是成为了大家关注的焦点。在人工智能迅猛发展的大背景下,人工智能芯片应运而生,它作为人工智能计算的专用处理芯片,其核心地位正日益凸显。本期特邀周军教授对人工智能芯片相关内涵及如何发展人工智能芯片产业做出了分析。

1

人工智能芯片发展现实需求

人工智能芯片是用于人工智能计算的专用处理芯片。人工智能计算最初采用计算机CPU处理器作为其硬件平台,可以处理一些小的神经网络。然而,随着神经网络规模的增加,CPU处理器并行程度不够,处理速度跟不上,无法实现处理的实时性。GPU毕竟不是专门针对人工智能计算而开发的,在架构上具有较多局限性。其中一个例子就是GPU虽可将乘法运算并行得很好,但在数据读写和搬运上效率却很低,而数据读写和搬运在神经网络的计算中占很大比例。因此,人们开始研究专门针对人工智能计算的芯片,如随后出现的谷歌的TPU、Intel的Nervana、华为的麒麟等。这些芯片和CPU/GPU的最大区别在于,它们设计了专门针对神经网络计算的硬件架构,可以达到更好的资源利用率和计算速度。

2

人工智能芯片分类

1

基于人工神经网络的人工智能芯片

人工神经网络是参考人脑运行机理并和传统计算模型相结合的神经网络,可以说灵感取之于人脑但又不同于人脑。在人工神经网络中,数据通过传统计算模型的二进制数值来表示,数值在神经元处完成乘加运算,并继续向后一层传播。当输入信息到达后,受时钟控制,所有神经元在每个时钟周期都在进行运算,直到产生输出为止。目前大多人工智能芯片都是基于人工神经网络的芯片,如谷歌、Intel、华为、寒武纪、深鉴科技、地平线等公司的人工智能芯片,但这些芯片一般只实现神经网络的前向推理过程,而权值的学习是离线完成的。因为相对于推理过程,权值的学习需要大量的迭代运算,要做到实时在线学习难度较大。

2

基于脉冲神经网络的芯片(类脑芯片)

它完全仿造人脑的运行机理来设计。数据的表示不再是数值,而是一个个脉冲信号,信息通过脉冲信号到达时间进行编码,和人脑机制非常相似。与基于人工神经网络的人工智能芯片不同,所有神经元并不是随时都在工作,而只在收到前一层神经元的脉冲后才开始计算;所有神经元也不是随时都在输出,当收到的脉冲累加达到一定阈值,神经元才会产生一个脉冲。通过这种跟人脑几乎相同的运行方式,可以实现极低的计算功耗。另外,脉冲神经网络还可进行非监督学习(又叫自主学习),即只需提供输入信息,而不需告诉神经网络输入信息的分类,神经网络便可根据某个策略自己调整权值。这跟人的自学方式非常相似,很可能是从弱人工智能走向强人工智能的一个途径,因此类脑芯片又被称为下一代人工智能芯片。类脑芯片的主要代表即IBM的TrueNorth,完成图片识别等任务只需毫瓦级别的功耗。

根据支持应用的灵活性,人工智能芯片又可以分为两种:一种是面向定制神经网络的人工智能芯片,这类芯片只针对某一种具体应用,例如人脸识别,如果某一种神经网络特别适合做人脸识别,可将其定制到硬件上,并专门针对其进行硬件优化。在这种情况下,神经网络的结构无法修改,只能完成人脸识别这一种任务,无法用于其他应用(如语音、动作识别等),缺乏灵活性。而优点是可专门针对人脸识别的神经网络去做硬件优化,从而实现最佳的性能和成本。第二种是可编程人工智能芯片,这种芯片可通过软件编程支持多种神经网络,神经网络的结构和参数都可修改。如神经网络的层数,每一层神经元的个数,神经元之间的连接等。

3

人工智能芯片发展趋势

1

从离线学习到在线学习

因学习算法运算量较大,目前大部分人工智能芯片都基于离线学习,权值预先训练好,不会随时间实时变化,因此不具备自适应性。若测试样本和训练样本差别较大,则准确率无法得到保证。为了像人一样边做边学,积累经验,人工智能芯片必须具备在线学习能力,即在同一芯片上实现推理和学习两个过程。前文提到目前神经网络学习算法计算复杂度较高,实现在线学习难度较大。然而随着芯片计算速度的不断提升和学习算法的优化,人工智能芯片将逐渐包含在线学习,这将极大地增加人工智能芯片的自适应性。

2

从监督/非监督学习到混合学习

神经网络的学习方式分为监督学习和非监督学习。目前的人工智能芯片一般采用其中一种学习方式。和监督学习相比,非监督学习具有更高的自主性,可能是实现强人工智能的一条途径。然而,非监督学习的效率较低,可能会走弯路,也可能会朝错误的方向前进。因此,如何将二者有机结合起来,设计具有混合学习能力的人工智能芯片,是一个值得研究的课题。就像人一样,有时候可以自学,有时候则需要老师指导,二者结合可事半功倍。

3

从高性能到低功耗低成本

目前大多数人工智能芯片的设计主要侧重于性能,面向的是数据中心、自动驾驶、智能手机等高端应用,对功耗和成本不太敏感。随着人工智能芯片逐渐普及,人工智能芯片将逐渐应用到一些中低端领域,如智能传感器、可穿戴设备、物联网终端等。这些应用领域设备需求量巨大,市场增长快,对性能要求相对较低,但对功耗和成本要求却非常高。因此,人工智能芯片未来将有很大一部分瞄准这些应用市场,芯片的设计目标,也将从高性能向低功耗、低成本方向转变。

4

从基于传统器件/集成技术到基于新型器件/集成技术

随着神经网络性能的提升,神经网络的规模也日益增大,对硬件的要求越来越高。目前人工智能芯片主要基于传统工艺和器件,集成度较低,单个芯片所能包含的神经元个数有限,跟人脑中神经元个数相距甚远。为满足不断增大的神经网络规模,未来的人工智能芯片将采用新型器件或封装技术,如忆阻器技术、三维集成电路技术等,采用这些技术实现神经元及网络连接,可大大减少神经网络的硬件开销,从而提高单个芯片所能实现的神经网络规模。同时,采用这些技术的神经网络在计算功耗上也会大大降低,是人工智能芯片未来的一个发展趋势。

4

成都人工智能芯片产业发展建议

成都市在发展人工智能芯片产业上具有得天独厚的优势。在人工智能应用方面,有与国际顶尖大学(如卡耐基梅隆大学)联合成立的人工智能产业研究院和众多相关领域的初创企业。在集成电路设计与制造方面,拥有格芯、华为、芯源等国际知名半导体公司以及陆续涌现的初创公司。同时拥有电子科技大学、四川大学等在集成电路和人工智能领域实力雄厚的一流大学。更重要的是,近来年成都市在集成电路和人工智能领域给予了前所未有的支持,如2018年3月出台的“集成电路十条”,2018年5月出台的“新一代人工智能发展规划”等。因此,成都市在产学研结合以及政策支持上都具有得天独厚的优势,可以考虑将人工智能芯片产业作为一个重点产业来打造,争取成为该领域国际国内的领头羊。

1

发展策略

第一,同时布局云端人工智能芯片和终端人工智能芯片。云端人工智能芯片需处理不同类型的数据,更强调通用性和性能;终端人工智能芯片针对特定类型数据,更强调专用性、功耗和成本。二者相互结合才能形成完整应用解决方案。

第二,考虑长短线结合的人工智能芯片发展策略。短线指能马上转化为产品、解决实际问题的人工智能芯片技术,如基于人工神经网络和成熟集成电路工艺的人工智能芯片,对这类技术应在鼓励创新的同时重点引导其与实际应用相结合,解决实际问题。长线指不能马上转化为产品的人工智能芯片技术,如类脑芯片、基于新型器件的人工智能芯片等。对这类技术可鼓励前沿性研究,鼓励跨领域、跨学科协同创新,在未来形成突破。

第三,考虑与成都特色产业相结合,如健康医疗、物联网、汽车、旅游等应用领域,从而形成具有成都特色的人工智能发展战略。

2

政策扶持

第一,通过重大科研项目立项,鼓励高校和企业联合申报,从而整合高校和企业在科学研究和产品研发方面的优势,形成快速突破。

第二,制定针对人工智能芯片领域初创公司的政策支持,解决公司发展初期的实际问题,帮助他们成长。例如,芯片设计行业和其他行业不同,初期流片验证的费用很高,政府可以考虑给予相应的补贴,这在国外是非常普遍的。另外,人工智能芯片属于前沿和新兴领域,人才难求,可以考虑对该领域初创公司招募人才给予相应的补贴。

第三,考虑设立专门的政府投资基金,寻找在人工智能芯片领域具有潜力的初创公司进行投资,并与人工智能应用方面的初创公司对接,构建产业生态圈。

作者:周军 电子科技大学教授、博士生导师,国家青年千人;成都市科学技术顾问团特邀专家

编审:鲁立文

编辑:朱俊蓉

校对:兰梅

编自:成都市科技顾问团办公室《参谋动态》2018年第11期

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180709B0JIOE00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券