Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >人工智能芯片是什么?有什么用?

人工智能芯片是什么?有什么用?

原创
作者头像
人工智能的秘密
发布于 2018-01-15 08:56:41
发布于 2018-01-15 08:56:41
2.6K0
举报

2018年1月9日,全球规模最大的2018北美消费电子产品展在美国拉斯维加斯拉开帷幕。本次参展的科技企业超过4000家,包括高通、英伟达、英特尔、LG、IBM、百度在内的业界科技巨头纷纷发布了各自最新的人工智能芯片产品和战略,作为本届展会的最大看点,人工智能芯片产品无疑受到了最为广泛的关注。

  与CPU比较,人工智能芯片有何不同?

  2017年,当AlphaGo在围棋大战中完胜柯洁后,各大媒体对人工智能的讨论就不绝于耳,甚至有人担心机器会具备自主思维,终有一天会像电影《终结者》中的场景一样对人类造成生存威胁。不管这种危机是否存在,但必须认识到人工智能芯片在架构和功能特点上与传统的CPU是有着非常大的区别。

  传统的CPU运行的所有的软件是由程序员编写,完成的固化的功能操作。其计算过程主要体现在执行指令这个环节。但与传统的计算模式不同,人工智能要模仿的是人脑的神经网络,从最基本的单元上模拟了人类大脑的运行机制。它不需要人为的提取所需解决问题的特征或者总结规律来进行编程。

  人工智能是在大量的样本数据基础上,通过神经网络算法训练数据,建立了输入数据和输出数据之间的映射关系,其最直接的应用是在分类识别方面。例如训练样本的输入是语音数据,训练后的神经网络实现的功能就是语音识别,如果训练样本输入是人脸图像数据,训练后实现的功能就是人脸识别

  通常来说,人工智能包括机器学习深度学习,但不管是机器学习还是深度学习都需要构建算法和模式,以实现对数据样本的反复运算和训练,降低对人工理解功能原理的要求。因此,人工智能芯片需要具备高性能的并行计算能力,同时要能支持当前的各种人工神经网络算法。传统CPU由于计算能力弱,支撑深度学习的海量数据并行运算,且串行的内部结构设计架构为的是以软件编程的方式实现设定的功能,并不适合应用于人工神经网络算法的自主迭代运算。传统CPU架构往往需要数百甚至上千条指令才能完成一个神经元的处理,在AI芯片上可能只需要一条指令就能完成。

  解读主流的人工智能芯片

  人工智能的高级阶段是深度学习,而对于深度学习过程则可分为训练和推断两个环节:训练环节通常需要通过大量的数据输入或采取增强学习等非监督学习方法,训练出一个复杂的深度神经网络模型。训练过程由于涉及海量的训练数据和复杂的深度神经网络结构,需要的计算规模非常庞大,通常需要GPU集群训练几天甚至数周的时间,在训练环节GPU目前暂时扮演着难以轻易替代的角色。推断环节指利用训练好的模型,使用新的数据去“推断”出各种结论,如视频监控设备通过后台的深度神经网络模型,判断一张抓拍到的人脸是否属于黑名单。虽然推断环节的计算量相比训练环节少,但仍然涉及大量的矩阵运算。

  在推断环节,除了使用CPU或GPU进行运算外,FPGA以及ASIC均能发挥重大作用。目前,主流的人工智能芯片基本都是以GPU、FPGA、ASIC以及类脑芯片为主。

  1.FPGA

  即专用集成电路,一种集成大量基本门电路及存储器的芯片,可通过烧入FPGA配置文件来来定义这些门电路及存储器间的连线,从而实现特定的功能。而且烧入的内容是可配置的,通过配置特定的文件可将FPGA转变为不同的处理器,就如一块可重复刷写的白板一样。FPGA有低延迟的特点,非常适合在推断环节支撑海量的用户实时计算请求,如语音识别。由于FPGA适合用于低延迟的流式计算密集型任务处理,意味着FPGA芯片做面向与海量用户高并发的云端推断,相比GPU具备更低计算延迟的优势,能够提供更佳的消费者体验。在这个领域,主流的厂商包括Intel、亚马逊、百度、微软和阿里云。

  2.ASIC

  即专用集成电路,不可配置的高度定制专用芯片。特点是需要大量的研发投入,如果不能保证出货量其单颗成本难以下降,而且芯片的功能一旦流片后则无更改余地,若市场深度学习方向一旦改变,ASIC前期投入将无法回收,意味着ASIC具有较大的市场风险。但ASIC作为专用芯片性能高于FPGA,如能实现高出货量,其单颗成本可做到远低于FPGA。

  谷歌推出的TPU就是一款针对深度学习加速的ASIC芯片,而且TPU被安装到AlphaGo系统中。但谷歌推出的第一代TPU仅能用于推断,不可用于训练模型,但随着TPU2.0的发布,新一代TPU除了可以支持推断以外,还能高效支持训练环节的深度网络加速。根据谷歌披露的测试数据,谷歌在自身的深度学习翻译模型的实践中,如果在32块顶级GPU上并行训练,需要一整天的训练时间,而在TPU2.0上,八分之一个TPUPod(TPU集群,每64个TPU组成一个Pod)就能在6个小时内完成同样的训练任务。

 3.GPU

  即图形处理器。最初是用在个人电脑、工作站、游戏机和一些移动设备上运行绘图运算工作的微处理器,可以快速地处理图像上的每一个像素点。后来科学家发现,其海量数据并行运算的能力与深度学习需求不谋而合,因此,被最先引入深度学习。2011年吴恩达教授率先将其应用于谷歌大脑中便取得惊人效果,结果表明,12颗英伟达的GPU可以提供相当于2000颗CPU的深度学习性能,之后纽约大学、多伦多大学以及瑞士人工智能实验室的研究人员纷纷在GPU上加速其深度神经网络。

  GPU之所以会被选为超算的硬件,是因为目前要求最高的计算问题正好非常适合并行执行。一个主要的例子就是深度学习,这是人工智能(AI)最先进的领域。深度学习以神经网络为基础。神经网络是巨大的网状结构,其中的节点连接非常复杂。训练一个神经网络学习,很像我们大脑在学习时,建立和增强神经元之间的联系。从计算的角度说,这个学习过程可以是并行的,因此它可以用GPU硬件来加速。这种机器学习需要的例子数量很多,同样也可以用并行计算来加速。在GPU上进行的神经网络训练能比CPU系统快许多倍。目前,全球70%的GPU芯片市场都被NVIDIA占据,包括谷歌、微软、亚马逊等巨头也通过购买NVIDIA的GPU产品扩大自己数据中心的AI计算能力。

  4.类人脑芯片

  类人脑芯片架构是一款模拟人脑的新型芯片编程架构,这种芯片的功能类似于大脑的神经突触,处理器类似于神经元,而其通讯系统类似于神经纤维,可以允许开发者为类人脑芯片设计应用程序。通过这种神经元网络系统,计算机可以感知、记忆和处理大量不同的情况。

  IBM的TrueNorth芯片就是其中一个。2014年,IBM首次推出了TrueNorth类人脑芯片,这款芯片集合了54亿个晶体管,构成了一个有100万个模拟神经元的网络,这些神经元由数量庞大的模拟神经突触动相连接。TrueNorth处理能力相当于1600万个神经元和40亿个神经突触,在执行图象识别与综合感官处理等复杂认知任务时,效率要远远高于传统芯片。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
【报告】邓志东:人工智能前沿技术与产业发展趋势(53PPT)
【新智元导读】感谢清华大学计算机系教授邓志东向新智元投稿,他在《人工智能前沿技术与产业发展趋势》报告中指出,深度学习是人工智能的最新突破,一定要和大数据结合起来,做数据驱动下的感知智能产品研发,认知智能是前沿研究,支撑人工智能应用的硬件引擎也很重要。邓志东认为,弱人工智能的产业发展正处于爆发期,大家可以开始做工程化的应用产品开发了,私有大数据和深度学习芯片是制胜的关键和法宝。 【作者介绍】邓志东,清华大学计算机系教授,博士生导师。兼任中国自动化学会理事,中国自动化学会智能自动化专业委员会主任。
新智元
2018/03/22
2.6K0
【报告】邓志东:人工智能前沿技术与产业发展趋势(53PPT)
解读主流的人工智能芯片有什么不同?
 在全球规模最大的2018北美消费电子产品展上,参展的科技企业超过4000家,包括高通、英伟达、英特尔、LG、IBM、百度在内的业界科技巨头纷纷发布了各自最新的人工智能芯片产品和战略,作为本届展会的最
机器人网
2018/04/18
1.1K0
解读主流的人工智能芯片有什么不同?
从百度AI云计算芯片XPU 聊聊人工智能的芯片发展丨科技云·视角
回顾计算机行业发展史,新的计算模式往往催生新的专用计算芯片。人工智能时代对于新计算的强大需求,正在催生出新的专用计算芯片。在加州Hot Chips大会和2017百度云智峰会上,百度发布了AI云计算芯片的XPU,这是一款256核、基于FPGA的云计算加速芯片。过去几年,百度在深度学习领域,尤其是基于GPU的深度学习领域取得了不错的进展。同时,百度也在开发被称作XPU的新处理器。
科技云报道
2022/04/14
1.2K0
从百度AI云计算芯片XPU 聊聊人工智能的芯片发展丨科技云·视角
CPU、GPU、TPU、NPU等到底是什么?
NPU即神经网络处理器(Neural network Processing Unit)
Jasonangel
2021/05/28
5.4K0
哪种芯片架构将成为人工智能时代的开路先锋
【IT168 评论】如果用刀来比喻芯片,通用处理器好比一把瑞士军刀,人工智能时代好比要拿刀来切肉,瑞士军刀可以拿来用,但它并非是为切肉设计的,所以效果并非最好。因此,需要专门打造一把切肉的刀,这把刀既要方便切肉,又要方便剁骨头,还需要具有一定的通用性。 从技术上而言,深度学习的人工神经网络算法与传统计算模式不同,它能够从输入的大量数据中自发的总结出规律,从而举一反三,泛化至从未见过的案例中。因此,它不需要人为的提取所需解决问题的特征或者总结规律来进行编程。人工神经网络算法实际上是通过大量样本数据训练建立了输
企鹅号小编
2018/01/22
7910
哪种芯片架构将成为人工智能时代的开路先锋
AI芯片的历史和现状
人的思维活动是否能用计算机来替代,从图灵的论文《计算机器与智能》和图灵测试,到最初级的神经元模拟单元——感知机,到现在多达上百层的深度神经网络,对人工智能的探索就没有停止过。在八十年代,多层神经网络和反向传播算法的出现给人工智能行业点燃了新的火花。反向传播的主要创新在于能将信息输出和目标输出之间的误差通过多层网络往前一级迭代反馈,主要目的是通过逐层的反馈调节系统参数来将最终的输出收敛到某一个目标范围内。
刘盼
2018/07/26
1.2K0
AI芯片的历史和现状
报告丨硬件和芯片巨头加速抢滩人工智能市场
基于模拟“神经网络”出现的深度学习对芯片的能耗与运算能力都提出了更高的要求,需要硬件层面的重要支持。CPU、GPU、FPGA、SoC等半导体产业都需要针对相应的AI需求进行调整和优化。这为芯片和集成电
用户1332428
2018/03/08
1K0
报告丨硬件和芯片巨头加速抢滩人工智能市场
CNCC最火论坛干货:神经形态芯片与神经形态计算机
以深度学习为代表的人工神经网络是机器学习最重要的方法之一,在云端和终端都有非常广泛的应用。然而传统的CPU和GPU芯片在进行神经网络处理时遇到了严重的性能和能耗瓶颈。
新智元
2018/12/06
9070
业界 | 谷歌TPU之后还有高通,人工智能芯片竞赛已经展开
选自Wired 作者:Cade Metz 机器之心编译 参与:黄小天、李泽南 作为机器学习的领军人物,Yann LeCun(杨立昆)曾在 25 年前开发过一块名为 ANNA 的人工智能芯片。而现在,
机器之心
2018/05/07
8520
业界 | 谷歌TPU之后还有高通,人工智能芯片竞赛已经展开
从GPU、TPU到FPGA及其它:一文读懂神经网络硬件平台战局
选自Blogspot 作者:Matt Hurd 机器之心编译 参与:Panda 在如今深度学习大爆发的时代,相关的硬件平台也在百花齐放,既有英伟达和谷歌这样的科技巨头,也有地平线机器人和 Graphc
机器之心
2018/05/09
1.4K0
人工智能 AI 芯片介绍及中国人工智能 AI 芯片公司近况
技术编辑:宗恩丨发自 SiFou NewOffice SegmentFault 思否报道丨公众号:SegmentFault
用户7454708
2023/05/08
1.3K0
人工智能 AI 芯片介绍及中国人工智能 AI 芯片公司近况
中国人工智能欲摆脱芯片“依赖症”,Nvidia成头号“狙击”目标丨科技云·视角
在过去三年人工智能的浪潮推动下,电脑显卡芯片制造商Nvidia股票市值从2015年200多亿美元,飙涨至如今1200多亿美元,期间涨幅高达6倍,使其一跃成为当下科技行业最受追捧的公司之一。Nvidia如今疯狂飙升的市值,没有人不对AI芯片在商业领域展现出的想象空间垂涎欲滴。
科技云报道
2022/04/14
4760
中国人工智能欲摆脱芯片“依赖症”,Nvidia成头号“狙击”目标丨科技云·视角
人工智能芯片主要技术特征/发展态势 | AI划重点 | 解读行业
懒人阅读:人工智能芯片是人工智能的“大脑”,可以分为终端和云端两个应用方向。目前主流CPU、CPU+GPU、CPU+FPGA、CPU+ASIC架构。人工智能芯片具有两个突出特点:一是算法与芯片的高度契合,面向终端和云端不同需求提升计算能力;二是专门面向细分应用场景的智能芯片,如语音识别芯片、图像识别芯片、视频监控芯片等。
用户7623498
2020/08/04
1.7K0
人工智能芯片主要技术特征/发展态势 | AI划重点 | 解读行业
《AI芯片:如何让硬件与AI计算需求完美契合》
在人工智能飞速发展的今天,AI芯片已成为推动这一领域前行的关键力量。从智能语音助手到自动驾驶汽车,从图像识别技术到复杂的自然语言处理,AI芯片的身影无处不在。它就像是人工智能的“超级大脑”,以强大的计算能力支撑着各种复杂的AI应用。那么,AI芯片究竟是如何将AI计算需求与硬件架构巧妙结合的呢?让我们一同深入探寻其中的奥秘。
程序员阿伟
2025/02/02
2150
谷歌TPU将取代GPU?英特尔、英伟达怕了吗?
随着人工智能尤其是机器学习应用大量涌现,处理器市场群雄争霸。各厂商纷纷推出新的芯片产品,都想领跑智能时。但问题是,谁会担当这个角色呢?
科技云报道
2022/04/12
1.2K0
谷歌TPU将取代GPU?英特尔、英伟达怕了吗?
AI芯片发展的前世今生
现代电子产品和设备在诸如通信 、娱乐 、安全和 医疗保健等许多方面改善了我们的生活质量 ,这主要是因为现代微电子技术的发展极大地改变了人们的日常工作和互动方式。在过去几十年中 ,摩尔定 律一直是通过不断缩小芯片上的器件特征尺寸来提高计算能力 ,带来了电子产品诸如更高速度 、更低成本和更小功耗等优势。Gordon Moore 最初的观察是 芯片中的晶体管数量大约每 2 年增加 1 倍 ,David House 进一步预测 ,由于更多更快的晶体管 ,芯片性能将每 18 个月翻一番。虽然 Gordon Moore 的预测已经成功超过 50 年 ,但是今天的硅 CMOS 技术正在 接近其尺寸的基本物理极限,摩尔定律的延续性已经变得越来越具有挑战性。
AI科技大本营
2020/02/20
1.1K0
AI芯片发展的前世今生
【深度】AI 时代,谷歌 TPU 难以颠覆 GPU 市场优势
【新智元导读】智能时代芯片市场格局一变再变,谷歌推出 TPU 引发新一轮讨论,谁将领跑芯片市场?看几个典型产品:TPU 仅供谷歌内部使用;IBM TrueNorth 离商用还有距离;中国的寒武纪是国际首个深度学习专用处理器芯片,市场表现值得期待;概率芯片以微小计算精度为代价实现能耗降低,是芯片市场一匹黑马;FPGA 凭其性价比有望占领市场;目前 GPU 用户覆盖率最广。 智能时代就要到来,芯片市场格局一变再变。两个典型例子:引领处理器市场 40 多年的英特尔 2015 年底收购完 Altera,今年 4 月
新智元
2018/03/22
1.1K0
【深度】AI 时代,谷歌 TPU 难以颠覆 GPU 市场优势
人工智能专用芯片是大势所趋,而IP授权是当前实现商业化的最佳选择 | 深度
人工智能芯片也有通用、专用之分,在商业化道路上也有着不同的选择。 8月中旬,人工智能芯片初创公司寒武纪获得1亿美元的A轮融资,至此成为该领域的第一个“独角兽”,紧接着,9月初,华为在IFA 2017上
镁客网
2018/05/30
5310
塔荐 | 全球人工智能芯片行业市场前瞻与投资战略规划分析
前 言 随着行业发展环境的趋好,人工智能芯片企业间的竞争将不断加剧,行业内企业间并购整合与资本运作将日趋频繁,优秀的人工智能芯片企业必须重视对行业市场的研究,特别是对企业发展环境和客户需求趋势变化的深入研究。 中国人工智能芯片行业 发展综述 1. 人工智能芯片行业概述 人工智能芯片的概念分析 芯片又叫集成电路,按照功能不同可分为很多种,有负责电源电压输出控制的,有负责音频视频处理的,还有负责复杂运算处理的。算法必须借助芯片才能够运行,而由于各个芯片在不同场景的计算能力不同,算法的处理速度、能耗也就不同。在
灯塔大数据
2018/04/04
1.3K0
塔荐 | 全球人工智能芯片行业市场前瞻与投资战略规划分析
重磅推荐:AI芯片产业生态梳理
AI芯片作为产业核心,也是技术要求和附加值最高的环节,在AI产业链中的产业价值和战略地位远远大于应用层创新。腾讯发布的《中美两国人工智能产业发展全面解读》报告显示,基础层的处理器/芯片企业数量来看,中国有14家,美国33家。本文将对这一领域产业生态做一个简单梳理。
辉哥
2018/08/10
1.1K0
重磅推荐:AI芯片产业生态梳理
相关推荐
【报告】邓志东:人工智能前沿技术与产业发展趋势(53PPT)
更多 >
LV.2
机器人科技有限公司excellent robot No.1
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档