10月25日—27日,中国规格最高、规模最大的计算领域盛会——2018中国计算机大会(CNCC2018)在杭州举办。此次CNCC不仅大咖云集(近400位国内外计算机领域知名专家、企业家到会演讲),而且成色极佳(15个特邀报告、3个大会论坛,60个技术论坛,20场特色活动)。
作为官方授权的合作自媒体,读芯术根据记者现场采写报道,将把主论坛和多个分论坛的精彩内容奉上,欢迎各位围观!这些文章均是从上万字的现场手抄记录中节选出来的精华,100%干货浓缩,专供参会走神、打瞌睡、会议浮躁症同学饮用!
读芯术读者交流群,请加小编微信号:zhizhizhuji。等你。
全文共2682字,预计学习时长5分钟
当计算机系统遇上人工智能,会发生什么?
新兴人工智能技术能否帮助设计人员突破传统技术瓶颈,设计更好的计算机系统以面对当前严峻的考验?在“当计算机系统遇上人工智能”分论坛上,与会专家就传统计算机系统结构科学所面临的技术挑战,从计算、网络、存储等多个方面研讨新兴人工智能技术给计算机系统设计带来的机遇,并对由此带来的前景进行广泛讨论。
廖小飞:内存计算—前沿与动态
人物小贴士:
廖小飞,博士、教授、博士生导师,华中科技大学计算机学院副院长。2005年获得华中科技大学工学博士学位,主要研究方向为系统软件、多核虚拟化、大数据处理等。主持863计划、国家自然科学基金等多个项目,单篇论文最高引用超过400次。
当前大数据应用对内存改进的迫切需求,为计算机的体系结构和设计带来了很多挑战。当前使用的DRAM内存难以支持大数据的运算,因此近些年诞生了很多新型存储介质,如PCRAM,MRAM,RRAM等。
新型存储介质SCM,在功耗、读取速度、使用寿命等方面都有很大的优势。SCM的出现将模糊现有计算机系统中内外存的边界,这使得构建具有更低成本和功耗的混合内存计算系统成为了一种可能。这一混合计算系统将由DRAM+SCM构成。同时这一新型内存计算系统也面临着诸多挑战,如系统架构、操作系统、编程模型、数据管理等方面的挑战。
廖教授展示了三个典型应用案例,分别是并行卷积计算优化,面向大图的访存优化,NVM在移动设备上应用。这三个案例分别从使用硬件提高神经网络计算速度、人工智能实现内存的新设计等方面来将人工智能融入到计算机系统设计之中。
高品:低延迟循环神经网络模型推理系统
人物小贴士:
高品,清华大学教授,从事低延迟循环神经网络模型及其推理系统的相关研究,并在这一领域取得了杰出的成果。
循环神经网络(RNN)是一种将一个单元重复使用的神经网络。循环神经网络的批处理是其一大主要特征。但目前的批处理方法存在着诸多问题。高教授分析了Naïve的调度方法,通过对比不同框架的p90延迟与吞吐量和Seq2Seq on2GPU以及TreeLSTM拟合的曲线,可以直观看到BatchMaker使用提前调度在各方面都有显著的优势。
Cellular Batching方法是一种将正在执行的请求与新到达的请求batch在一起,减少延迟的一种新的方法。而BatchMaker系统则可以极大地提升RNN的工作效率。这两点是构建低延迟循环神经网络模型推理系统的关键。
须成忠:基于机器学习的数据中心智能调度
人物小贴士:
须成忠,教授 学家,中国自然科学基金会“海外杰青”获得者,入选国家“千人计划”和“广东省领军人才”计划。
须教授主要介绍了关于数据中心设计的几个基本问题和数据中心设计的趋势。他将数据中心与高性能计算进行了比较,点明了二者具有本质上的区别。使用数据中心成本低廉,且数据中心的系统可用性主要来自系统软件;而使用高性能计算需要花费巨大的成本,其可用性主要是来自其定制化硬件。数据中心的诸多优势使得它成为了目前做系统管理调度的首选。
将机器学习的算法用到数据中心上来可以提高系统的可靠性,传统的启发式调度算法及静态预留方法不能很好地满足均衡调度的要求,缺乏对优化目标的迭代反馈自主学习,且不能很好地适应云服务概率意义上的服务保证,云数据中心故障频发。
机器学习能使云数据中心实现智能调度。提升云数据中心的运行效率,增强云数据中心用户体验,为云计算运营商带来可观的经济收益。数据中心为人工智能提供支持的同时,人工智能也可以对数据中心发挥作用。强化学习使虚拟系统能够面对不同应用做出自调整,这将大大节省人力和物力,使得数据中心更加智能易用。
杨智:支持大规模图结构的神经网络计算系统
人物小贴士:
杨智,北京大学副研究员,一直从事分布式系统研究,目前主要关注图计算系统、机器学习计算系统,近5年在系统领域的著名会议和期刊发表论文20余篇,包括WWW、ATC、SoCC、HPDC,ICDCS等,引用超过600次。
杨智研究员介绍了神经网络的基本概念,讲述了图神经网络的计算过程。图神经网络的训练过程不同于其他神经网络的一轮式训练,而是采用了参数共享的训练方式。
图神经网络计算系统NGra,是首个针对图神经网络的计算框架,NGra使用SAGA-NN编程模型,这一模型结合了图编程和数据流编程模型。NGra运用图切分和流计算技术将突破GPU显存限制变成了可能,还可以利用GPU间的p2p传输来实现拓扑感知的多GPU执行。
周可:存储系统中的人工智能
人物小贴士:
周可,华中科技大学、武汉光电国家研究中心教授,博导,入选教育部新世纪优秀人才。主要从事云存储、海量数据处理方向的研究。计算机学院存储研究所副所长,信息存储系统教育部重点实验室副主任,华中科技大学-腾讯公司智能云存储技术联合研究中心主任。
存储系统的数据和设备越来越多,导致数据调度和设备管理越来越复杂,采用人工智能技术改造存储系统成为一种趋势。如何利用人工智能的手段去解决当前存储系统中所面临的问题,如一次数据排斥问题的预测及处理?这一问题的解决就用到了机器学习的方法。利用Decision tree算法来对一次数据进行概率分析,以此来预测数据是否为一次数据。
周教授以自己接手的磁盘故障预测项目为例,说明了迁移学习算法的重要性。这种训练方法解决了训练样本少的问题,较一般方法,迁移学习能更好地适应硬盘版本更新快、硬盘厂家多、生产品控参差不齐等特点,用较少的样本也能得到很好的效果。
通过机器学习的方法可以实现数据库的自动调优。强化学习的算法可以解决机器学习在训练阶段需要大量样本的问题,实现用少量的样本实现自学习。调优后数据库的吞吐率和延时等参数接近人工调优,取得了相当不错的结果。
存储形态由产品转向服务,其技术基础由基于符号规则的人工智能转向基于数据模型的人工智能,存储正在经历着巨大的转变。
喻之斌:大数据系统高维配置优化关键技术
人物小贴士:
喻之斌,中国科学院深圳先进技术研究院研究员,中科院百人,数字所副所长,异构智能计算中心主任。主要从事异构处理器体系结构、性能模型、基准测试程序、云计算和大数据系统构建与优化等方面的研究。
利用人工智能算法,可以从系统层面和体系结构层面提高大数据系统的性能。在计算机系统发展的过程中,影响性能的因素越来越多,设计空间急剧增大,高维配置问题随之出现。由于机器学习模型在计算系统研究中越来越重要,因此需要基于人工智能的大数据系统进行高维配置优化。这种优化可从磁盘和内存两种渠道进行。
在使用云服务器的时候无法使用性能计数器,因此产生了CPU性能大数据的概念,并且采用了数据挖掘的方法来处理。通过人工智能的方法使得每一次修改代码的任务量尽可能小,修改的位置只集中在一个很小的代码块内,这样既降低了修改程序的风险,也能提升修改的准确率。可以基于机器学习的设计参数重要性量化分析方法优化设计GPUGPU体系结构,并通过数据和图标来说明这种优化设计的主要优势。
留言 点赞 发个朋友圈
我们一起探讨AI落地的最后一公里
现场小记者:金子涵
如需转载,请后台留言,遵守转载规范
领取专属 10元无门槛券
私享最新 技术干货