首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

多加一倍GPU,大模型训练时间能省一半吗?

这是鹅最近被问到最多的问题。

训练大模型离不开超大规模算力,GPU当然是核心。

没卡万万不行。但只要有卡就万事大吉了吗?

其实,当我们谈论算力时,GPU卡只是角色之一。

庞大的训练任务,需要由大量GPU服务器组成的算力集群协作完成。

这些服务器通过机间网络相连接,不断交换海量数据。

集群每次计算的背后,服务器间的同步通信量高达百GB。

如果网络性能跟不上,单卡再强,也只能“干等着”。

而且,随着集群规模扩大,网络带来的算力损耗还会更大。

传统的网络架构,在传输时会经过多层协议栈:

需要反复停下来检查、分拣和打包,通信效率很低。

为解决这一问题,业界通常会引入RDMA技术:

它就像点对点的高速传送带,支持服务器内存间直接通信。

中间环节少了,自然省下不少资源开销。

为了让机间网络的性能跟上突飞猛进的GPU 卡,光靠RDMA还远远不够。

鹅厂死磕网络技术多年,研发了高性能计算网络“星脉”:

//网络带宽、拓扑架构

“带宽”相当于路的宽度,“拓扑”则是节点设备间的连接方式。

前者决定了能同时传输多少数据,后者决定了组网规模有多大。

3.2Tbps带宽、支持10万卡集群组网

——这两项硬指标,星脉都做到了业界最强。

//升级网络协议

网络协议,就像网络世界里的“交通规则”。

星脉引入了腾讯自研端网协同协议TiTa,内嵌拥塞控制算法。

它不仅能控制数据发送速率,还能自动设置数据传输的优先级:

按导航给的“推荐速度”行驶,通过每个路口都是绿灯。

这项优化,让星脉的时延降到10us ~ 40us、丢包率降到0。

//计算网络联合优化

对分布式架构而言,想要把资源用足,需要实现“负载均衡”:

把任务更均匀地分到每台服务器、每条路径上。

通过几项联合优化,星脉的负载利用率提升至超过90%:

一是,多轨道流量亲和性规划。

它就像智能分配的物流系统,确保每条线路都得到充分利用。

既不会闲下来、也不会忙到爆。

二是,引入腾讯自研TCCL高效集合通信库。

它支持全局网络路由、拓扑感知亲和性调度。

就像智能导航,预先规划行驶路线、并根据路况动态调整。

通过这些技术创新,星脉让大模型通信性能提升了10倍。

万亿参数大模型训练时间已经加速至4天。

传输距离会带来通信损耗,是客观的物理定律。

但通过一点一滴的网络技术突破,我们尽力让集群算力输出更加接近线性。

每个备受关注的技术趋势背后,都经过了数十年研发。

从最早服务QQ、到服务云上海量用户、到构筑大模型算力集群,

鹅厂自研的网络架构,已经完成三代技术演进。

未来,我们也会继续投入基础技术,

为各行各业的数智化转型提供有力支撑。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230626A067K900?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券