首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能发展遇难题?突破瓶颈,未来科技的发展离不开它!

近几年再次兴起的AI热潮,不仅引发了芯片巨头们的AI芯片战,更让科技巨头们纷纷开始了AI芯片的研发。

而在AI芯片的争夺中,算力首先成为了焦点。不过,算力提升之后,算力与内存的不匹配又成为了阻碍AI向前发展的关键。

AI芯片的真正问题是内存墙

算力、算法、数据被认为是AI向前发展的三个关键因素,更高的算力自然必不可少,这也直接驱动了AI芯片公司们推出更高算力的AI芯片。

这一轮的AI热潮很大程度是机器学习尤其是深度学习受到了追捧。因此,如今AI芯片重要的意义在于满足机器学习的算法的需求。

深度学习算法具有高并发、高耦合的特点,不仅有大量的数据参与到整个算法运行的过程中,这些数据之间的耦合性也非常紧密,因此对存储带宽提出了非常高的要求,大规模的数据交换,尤其是芯片与外部DDR(Double Data Rate SDRAM,双倍速率同步动态随机存储器,常简称为DDR)存储之间的数据交换,这将大幅增加了功耗。

现在,越来越多的AI芯片的IP提供方和AI芯片的设计公司都意识到,AI芯片的本质不是要解决计算问题,而是要解决数据问题。与数据和存储相关的带宽瓶颈、功耗瓶颈问题,被称为存储墙问题。即便是经验丰富的Arm,认识到AI芯片关键的问题也走了一些弯路。

突破“内存墙”瓶颈,加速产品落地

从图中可以看到,处理器和存储器两者的速度失配以每年50%的速率在增加,长期累积下来,不均衡的发展速度造成了当前内存的存取速度严重滞后于处理器的计算速度,内存瓶颈导致高性能处理器难以发挥出应有的功效,这对日益增长的高性能计算(HPC)形成了极大的制约。

在传统计算设备广泛采用的冯·诺依曼架构中,计算和存储功能不但是分离的,而且更侧重于计算。数据在处理器和存储器之间不停地来回传输,消耗了约80%的时间和功耗。

因此,快速成长的人工智能应用如果要实现高效率的运算性能,必须解决“内存墙”的瓶颈。加大存储带宽,采用高带宽的外部存储,是业界比较常见的解决内存墙问题的方法。

作为国内IP市场连续10年领先的中国芯片IP和芯片定制的一站式领军企业,2018年,芯动科技(INNOSILICON)在全球范围内率先攻克顶级难度的GDDR6高带宽数据瓶颈,并量产性能领先的加密计算GPU;率先掌握0.35V以下近阈值电压低功耗计算技术;提供市场上最快的AI存储加速芯片,使SOC数据的存储带宽增加四倍以上,支持高性能国产CPU/GPU/NPU等各种HPC应用场景。

尽管有大量革命性技术和创新架构,但内存仍然是设计的核心。选择正确的内存解决方案也通常是获得最佳系统性能的关键。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200901A0LXJS00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券