本文授权转自:中国香港人工智能与机器人学会
ID:HKSAIR
微信-中国香港科技大学人工智能联合实验室专注研究人工智能(AI) 科技相关的范畴,探索人工智能尚未开拓且影响深远的领域。目前人工智能科技的发展非常迅速,而技术的进步有赖于人才培育、问题解决方案、数据收集和运用。
微信与科大在这些方面均有互补的优势,达成在人工智能研究上长远而领先业界的研发合作。
实验室的研究范畴包括机器学习、自然语言处理、机械人、数据挖掘及语音辨识,运用微信平台的数据资料,发展人工智能的创新应用。
实验室年均有10个项目。包括不同学科例如 : CSE, ECE, MATH。每年有5-10教授,20个博士参与研究。
2015年11月26日WHAT Lab在HKUST成立
2016年11月16日 WHAT Lab 一周年成果分享
WHAT Lab 成果一:机器阅读(杨强教授)
Clustar 顾问委员会主席 杨强教授
机器阅读旨在开发机器学习算法,使计算机像人类一样阅读和理解自然语言文档。
主要技术:深度学习、自然语言处理和信息检索
通过机器阅读,自然语言信息被转换为可以由计算机处理的形式,并且可以在诸如文章概括,问题回答、对话系统等应用中进一步使用。
WHAT Lab 成果二:对话系统(杨强教授)
对话系统是一种可以通过自然语言跟人类交流信息的计算机系统。
主要技术:语音,自然语言处理,机器学习,规划与推理,知识工程,甚至语言学和认知科学中的许多理论在人机对话中都有所应用
通过对话系统,计算机信息可以被转换成自然语言描述传递给人,人类语言也可以被转换成计算机的信息,从而达到人机交流。对话系统可以帮助人类查询信息,完成任务,聊天解闷等。
WHAT Lab 成果三:可视化系统WeSeer(屈华民教授)
屈华民教授
数据可视化为数据分析、整合和预测提供了强有力的帮助
在WeSeer项目中,我们从不同的角度,包括3D全局概述,时变传播视图,社区检测视图等,在视觉上调查了公众号文章信息在微信平台中的传播
WHAT Lab 成果四:大规模机器学习加速系统(陈凯教授)
Clustar创始人 陈凯教授
AI计算规模呈爆炸式扩张,单点计算能力(GPU, 智能芯片)的突破不能满足需求,必须通过网络互联大规模集群计算,但传统网络协议TCP/IP成为大规模AI计算瓶颈:
CPU占用率高达30%-60%, 直线降低AI系统计算效率
网络带宽利用率10%-30%, 难以满足参数模型传输需求
端到端时延毫秒级,不能满足AI应用微妙级时延要求
我们应用新一代数据中心网络协议(RoCE: RDMA over Converged Ethernet)取代传统互联网TCP协议,提高分布式集群算力:
CPU占用率~0, 提高单点计算效率
带宽利用率100%,提高参数传输速度、强化集群算力
端到端时延
部署在微信深度学习的实际应用:平均性能提升3倍!
朋友圈分类(ego_network)
对话模型(deep_conversation)
图像识别模型(VGG和AlexNet)
实验室平台的压力测试:26.7倍!
下一步目标:希望打造出最快的分布式深度学习系统,为AI应用提供稳定高效训练平台,减少训练时间,降低成本,提高企业计算资源利用率,加速人工智能行业迭代升级。
领取专属 10元无门槛券
私享最新 技术干货