Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >液冷数据中心,理想如何照进现实?

液冷数据中心,理想如何照进现实?

作者头像
大数据在线
发布于 2022-04-06 11:21:14
发布于 2022-04-06 11:21:14
8210
举报
文章被收录于专栏:大数据在线大数据在线

液冷数据中心的春天已经来临?

事实的确如此。最近几年,“液冷数据中心”开始频繁进入到人们视野,从新基建、碳达峰/碳中和到东数西算、低碳节能,几乎每一项重大战略决策/工程中,都少不了它的身影。业界也一致认为,液冷将开启数据中心节能减排的下一次变革。

但从风冷到液冷,数据中心改变的不仅是节能减排方式,更是整个数据中心技术产品形态、商业模式乃至生态的重塑。相比于风冷,液冷数据中心固然有着诸多天然优势,亦存有着成本高昂、标准匮乏、生态割裂等现实问题,所以落地之路不言轻松。

如何让理想照进现实,真正助推液冷数据中心走向大规模落地?业界需要破局者,在技术更迭期,携手多方合作伙伴共同推进液冷数据中心的落地。就像近日的浪潮信息生态伙伴大会IPF2022上,浪潮信息率先行动,正式亮相亚洲最大液冷数据中心研发生产基地“天池”,更携手京东云联合发布天枢(ORS3000S)液冷整机柜服务器,为液冷数据中心的发展注入一股强力助推剂。

01

数实融合时代,液冷有何魔力

当下,规模与功耗是数据中心发展最为突出的一对矛盾。

之所以会如此,是因为数字经济与实体经济的加速融合,不仅带来海量数据和各种智慧应用场景,更让算力成为关键生产力要素,推动数据中心加速走向智算中心,让数据中心产业呈现出集约化、规模化和智能化的特征。第三方数据显示,数据中心数量从2019年42.9万个降低到2021年的41.5万个,而超大规模数据中心则从2019年的512个增长到2021年691个。

随着数据中心向智算中心演进,数据中心设备数量持续膨胀,也让数据中心设备功耗、冷却功耗不断增加。以数据中心平均机架功率为例,近年来随着大量AI高功耗芯片的使用,让数据中心的功率密度不断提升,仅2020年数据中心平均机架功率就达到了8.5kW/机柜,年复合增长率超过15%。

相关统计数据更显示,2019年中国数据中心能耗中,约有43%是用于IT设备的散热,基本与IT设备自身的能耗(45%)持平,预计到2030年,中国数据中心总耗电量将达到5915亿千瓦时,占全社会用电量的5%。

因此,通过建设绿色数据中心来降低功耗和运营成本已势在必行,而液冷数据中心则被寄予厚望和委以重任。所谓液冷,是使用液体取代空气作为冷媒,为发热部件进行换热,带走热量的技术。相比于风冷,液冷技术主要有以下三大优势:

首先,液冷数据中心无需机房制冷机和末端空调,也无需服务器等设备风扇,利用液体代替空气,大幅提升散热效率,让数据中心PUE显著下降。以250W以上中高功耗芯片冷却为例,在液冷技术的支持下,芯片温度可降低20℃。

例如,此次浪潮信息与京东云联合发布的天枢(ORS3000S)液冷整机柜服务器,支持冷板式液冷,在数据中心部署总体能耗降低45%。

其次,液冷技术让数据中心选址不再受到地域、海拔、气候等因素的影响,可根据业务需求建设。相比于扩建和改建,像东数西算等工程中的新建数据中心集群受限制少、规划起点高,最适合采用液冷技术。

第三,液冷数据中心无需各种制冷设备,让数据中心的空间利用率和运维效率得以大幅提升,满足数据中心向高密度的演进趋势。

例如,浪潮信息携手燧原科技打造的“钱塘江”智算中心方案中,创新研发全球首台开放加速模组液冷计算平台,率先实现单节点8颗400W高性能AI芯片液冷散热,支持50℃中高温水运行,智算中心整体PUE低于1.1。

当然,液冷近年来备受大家关注和青睐的同时,其高速发展过程中各种挑战也逐渐显现,成为当前液冷数据中心产业界亟需解决的难题。

02

不能忽视的三大挑战

毋庸置疑,液冷数据中心依然处于起步阶段,商业化进程在加速,过去几年取得了可喜成绩。不过,液冷仍然受制于成本、技术成熟度、生态等因素,亟待市场取得突破。

其一,需求的复杂性和差异性对于液冷数据中心的产品、技术和解决方案等层面带来极大挑战。例如,新建数据中心规划起点高,通常选择会比较容易,像冷板式、沉浸式液冷等方案均为不错的选择;但亦不能忽视很多已有数据中心的液冷改造难度,这部分数据中心往往是根据风冷模式来设计,如何降低这些数据中心的液冷改造成本就成为影响液冷普及推广的关键挑战。

其二,场景复杂化和部署规模化对于产品形态、厂商交付能力的考验。众所周知,数实融合的加速,带来极其丰富的应用场景需求,反应到数据中心层面就是异构计算、智慧计算成为主流,高密度服务器、AI服务器、通用服务器等各种服务器设备大量并存,需要液冷数据中心厂商拥有各种类型产品来满足差异化需求。

而像一些新建数据中心则对于规模化交付、部署提出了极高要求。例如,东数西算工程启动了10个国家数据中心集群,规模化、规范化和高水平的要求,对于液冷数据中心的交付能力极为考验。

其三,液冷数据中心通常需要室内和室外循环两次带走热量,涉及到的设备、部件数量众多,部件之间的兼容是液冷数据中心大规模推广的关键。然而,目前液冷数据中心的标准匮乏、生态割裂,亟待市场各方力量加速推动标准的完善和生态的稳步建设。

某数据中心领域专家直言:“需要尽快推动液冷行业标准的建设,对发热设备、器件、冷却液、液冷设备和运维等方面统一要求。市场需要牵头者带动产业链的伙伴,提升行业共识度。”

无疑,液冷数据中心现阶段的发展需要市场破局者,在强大研发能力和产品交付能力的基础上,携手产业链上下游合作伙伴,推动液冷标准的完善、产品的联合创新和解决方案的构建,从而让液冷数据中心真正实现理想照进现实。

03

浪潮信息,勇当破局者

在众多厂商中,浪潮信息无疑是破局者的代表,其在液冷数据中心领域强大的研发储备、丰富的产品、出色的供应与交付能力以及构建完善生态的格局,使得其近年来逐渐在液冷数据中心市场中脱颖而出。

在研发层面,浪潮信息是当前市场中少有提前布局液冷数据中心的厂商,在直接冷却与间接冷却等数据中心液冷技术领域有着大量创新积累。浪潮信息服务器产品线副总经理陈彦灵介绍,从2016年开始,浪潮信息就积极布局液冷领域的研发,目前拥有100多项液冷技术核心专利。

浪潮信息服务器产品线副总经理陈彦灵

浪潮信息还是市场中少有具有全栈研发视角的厂商,采用协同创新的研发模式统筹考虑供电和散热等问题,携手多方合作伙伴探索节能降耗的最佳解决方案。

在产品层面,浪潮信息充分考虑到市场上差异化需求,拥有包括冷板式液冷、热管式液冷、浸没式液冷等各类型的产品;以冷板式液冷数据中心产品为例,浪潮信息拥有从液冷机柜到紧凑型微模块、单排微模块、双排微模块等一系列模块化液冷数据中心产品。此外,浪潮信息还自主设计数据中心内外部的液冷冷却循环系统,实现液冷数据中心端到端交付。

以本次发布的天枢(ORS3000S)液冷整机柜服务器为例,就是浪潮信息多年研发积累的典型成果,天枢(ORS3000S)液冷整机柜服务器采用N+N冗余的集中供电设计,比分布式电源模式整体效率提升10%,一体化交付方式则让交付速度提升5-10倍。该产品在京东云数据中心实现规模化部署,在京东618、双十一、央视春晚红包互动等多个海量场景中担当重任,能效比表现出色。

此外,浪潮信息已建成迄今亚洲最大的液冷数据中心研发生产基地——“天池”,构筑覆盖研发、测试、生产、交付的全链条液冷制造能力,年产量达到10万台,并且实现业界首次冷板式液冷整机柜的大批量交付,交付周期缩短至5~7天以内,可以充分保障液冷产品的供应与交付。

在生态层面,浪潮信息深知液冷数据中心在起步阶段时“独行者速、众行者远”的重要性,积极参与到各类标准的制定和生态建设之中。作为OCP、ODCC、Open19全球三大开放计算组织的核心成员,浪潮信息深知利用开放计算的协作创新、高效标准、强大生态等优势对于推动液冷数据中心普及大有裨益。

陈彦灵透露,浪潮信息正在积极推动高密度整机柜服务器、支持液冷的高效制冷系统、高压直流的高效供电系统等开放数据中心标准的建立。

面向未来,液冷数据中心拥有广阔市场前景毋庸置疑,不过技术成熟、行业标准、生态建设均非一朝一夕能够完成,需要包括浪潮信息等所有产业链厂商共同努力,一起推动整个液冷数据中心产业向前发展。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-03-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据在线 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
让服务器运行在最适宜温度下,元脑InManage打通IT与动环智能管理
日前,元脑InManage数据中心智能管理平台全面升级,打通IT基础设施管理系统与动力环境监控系统,实现双平台统一纳管,构建覆盖数据中心环境参数和服务器关键数据的全域数据池,可以根据服务器部件温度情况,实现从服务器风扇、整机负载,到数据中心空调、冷量、流量等自适应精准调控,让服务器始终稳定运行在最适宜的温度下,从而达成数据中心级的节能降耗,风冷系统能耗直降15-20%,液冷系统再节能10%,打造安全稳定、绿色高效的高质量数据中心。
全球TMT
2025/04/28
320
让服务器运行在最适宜温度下,元脑InManage打通IT与动环智能管理
开放计算再造三原色:绿碳•红利•蓝海
作为数字经济的核心基础设施,数据中心是开放计算的重要抓手,其演变轨迹将直接影响开放计算的发展进程,甚至可能重塑整个ICT产业的生态。
IT创事记
2022/12/21
3520
开放计算再造三原色:绿碳•红利•蓝海
液冷技术:迎接AIGC时代数据中心的散热挑战
随着人工智能生成内容(AIGC)的跨越式发展,算力需求呈爆炸式增长,带动了数据中心的功耗和热管理需求的飞速上升。AI模型训练和推理过程中的高计算资源需求,导致服务器发热量大幅增加,对散热技术提出了更高的要求。根据Colocation America发布的数据,2020年全球数据中心单机柜平均功率已经达到16.5kW,比2008年增加了175%。液冷技术因此成为数据中心散热技术的新热点。
亿源通科技HYC
2024/08/15
6440
液冷技术:迎接AIGC时代数据中心的散热挑战
​数据中心暖通架构发展趋势及未来液冷技术的思考
第4届中国数据中心绿色能源大会——主旨论坛“跨界融合 智驱未来”上,腾讯数据中心首席架构师林志勇老师以“数据中心暖通架构发展趋势及未来液冷技术的思考”为题发表演讲。现将精彩内容整理如下,供数据中心广大从业者学习交流。
腾讯数据中心
2023/08/03
2.7K0
​数据中心暖通架构发展趋势及未来液冷技术的思考
数据中心的黑科技——到底什么是NPO/CPO?
所谓“东数西算”,其实就是数据中心的任务分工调整。我们将东部沿海地区的部分算力需求,转移到西部地区的数据中心完成。
鲜枣课堂
2022/12/30
1.2K0
数据中心的黑科技——到底什么是NPO/CPO?
为了省电,通信网络到底有多拼?
根据运营商财报数据,2020年,中国移动的能耗费用是376.6亿元,中国电信146.4亿元,中国联通129亿元。三大电信运营商加在一起,是652亿元。要知道,2020年三大运营商的利润,一共也就1411.48亿元。
鲜枣课堂
2022/04/07
5620
为了省电,通信网络到底有多拼?
走进腾讯数据中心
导语:互联网企业是数据中心建设和应用的大户,所以他们在数据中心的探索上一定程度代表了这个产业的发展方向。通过此次走访腾讯天津数据中心可以看出,以微模块数据中心(TMDC)、整机柜服务器和高压直流为核心的技术正在掀起一场数据中心新的变革。 image.png 腾讯天津数据中心外观 云计算、大数据及社交等新的技术趋势和业务需求,推动着中国迎来数据中心建设的又一轮高潮。据相关统计,2013年我国兴建了数据中心3500多个,其中超过1万平米以上的数据中心就有21个。目前,中国已经拥有大大小小的数据中心
腾讯数据中心
2018/03/16
9.5K2
走进腾讯数据中心
集装箱数据中心:让你的数据中心动起来
早在2005年开始,Google数据中心就采用标准的集装箱式设计,当时Google用45个集装箱搭建了一个奇怪的设施。每个集装箱可容纳1160台服务器,具有250KW的功劳,每平方英尺可以具有780W的功率密度。
木禾wen
2019/11/22
3.2K0
集装箱数据中心:让你的数据中心动起来
散热与可靠性兼得的极限挑战:我知道风,是在哪一个方向吹
“风扇转速刚过每分钟2万转,硬盘就掉链子,而且多次测试结果都是这样。”即使看惯了实验室里不同工况条件下的大场面,浪潮信息服务器研发工程师张海龙对眼前的情况还是有些惊讶,“毕竟各种因素赶到一块儿的场景太罕见了”。
IT创事记
2022/08/30
3740
散热与可靠性兼得的极限挑战:我知道风,是在哪一个方向吹
液冷技术与电信从业者
液冷技术虽非全新概念——早在19世纪末就被用于超高压变压器的绝缘与冷却,汽车内燃机的冷却系统更是其典型应用,但将其引入电子设备领域曾长期被视为风险之举。
通往ICT之路
2025/02/07
1150
液冷技术与电信从业者
数据中心冷战:风冷未央 液冷已至
近几年,数据中心的能耗问题受到越来越多的关注,并且已经成为制约数据中心行业可持续发展的重要因素。为此,2013年以来,政府相继出台了多项政策,对新建数据中心的节能水平提出了要求,北京更是暂停了PUE>1.5的新建数据中心审批工作。 数据中心为了追求更加的高效节能,冷却技术也发展出了多种形式。目前,数据中心市场上主要采取制冷方式包括:风冷精密空调制冷和水冷精密空调制冷。 数据中心早期并没有专用的精密空调,也没有统一的标准,早期的数据中心主要用的是民用大功率空调,这种空调主要是为人而设计,并不合适在数据中心
企鹅号小编
2018/01/24
1.8K0
数据中心冷战:风冷未央 液冷已至
中兴通讯2024年年报AI业务解读:千年老二,大而不强
中兴通讯(SZ:000063)的主营业务ICT产品及解决方案,聚焦于“运营商网络、政企业务、消费者业务”。公司的主要产品是无线产品、核心网产品、有线产品、数据中心交换机、云电脑、服务器、数据中心、分布式数据库、家庭终端、手机及移动互联产品。 
AIGC部落
2025/04/11
1040
中兴通讯2024年年报AI业务解读:千年老二,大而不强
液冷交换机探索之路
随着互联网、云计算和大数据业务的增多,数据中心的总能耗越来越大,其能源效率也越来越受到重视。据数据统计,我国数据中心平均能源利用效率PUE(Power Usage Effectiveness)值为1.49,远高于国家发改委提出的新建大型数据中心小于1.25的要求。
用户6874558
2023/03/06
1.5K0
液冷交换机探索之路
从整机柜液冷到全产业生态,戴尔科技亮相全球顶级超算大会
美国时间11月18日,业界瞩目的SC19国际超算大会在科罗拉多州丹佛会展中心举行。本届大会由ACM与IEEECOMPUTER SOCIETY联合主办,以“HPC正当时(HPC is Now)”为主题。
用户6543014
2019/11/26
9410
从整机柜液冷到全产业生态,戴尔科技亮相全球顶级超算大会
东数西算下,液冷数据中心为何日趋重要?
在“双碳”目标和“东数西算”工程的推动下,液冷、深度学习、高性能计算、多样化计算等技术前景广阔。数据中心、超算平台基础设施可按照不同的冷却方法进行划分风冷数据中心基础设施和液冷数据中心基础设施。数据中心散热技术领域不断创新。目前,液冷技术以其稳定性高、散热效率高等优势逐渐显现出优势。在“碳达峰”和“碳中和”目标的背景下,液冷技术的市场需求十分广阔。据赛迪顾问预计,到2025年中国液冷数据中心基础设施市场规模有望达到245.3亿元。液冷数据中心基础设施又可分为冷板式液冷数据中心基础设施和浸没式液冷式数据中心基础设施冷却数据中心基础设施。
液冷服务器
2023/02/28
8110
东数西算下,液冷数据中心为何日趋重要?
数据中心的能耗焦虑, 到底有没有最优解?
几年前的时候,每当电商大促、春晚红包等节点,宕机和救火几乎是从不缺席的戏份。近两年却是另一番景象:即便是在618大促这样的流量波峰,大多数电商平台都顶住了高并发的压力,背后离不开算力的迅猛增长。
Alter聊科技
2023/01/13
5810
模块化重塑系统之美:边缘服务器如何炼成“百变金刚”?
边缘的急剧裂变,会引发整个系统的重建。当边缘计算风生水起,基础设施也必然随需而动。
IT创事记
2022/12/21
4180
模块化重塑系统之美:边缘服务器如何炼成“百变金刚”?
致敬经典——腾讯第三代数据中心
序言 伴随着腾讯业务的不断发展壮大,腾讯数据中心走过了21年的光辉历程,期间不断地推进了数据中心技术架构的迭代和升级。为了适应海量服务器快速、低成本的部署和运营要求。早在2012年,腾讯就推出了第三代数据中心架构——微模块架构。经过八年的应用实践和优化完善,微模块技术架构已经发展成为数据中心行业的主流技术;为腾讯第四代T-Block技术架构升级奠定了坚实的基础。本文将从运营实践的视角带领大家去回顾腾讯第三代数据中心技术的最佳实践。 什么是微模块? 微模块(Modular Data Center,MDC)是
腾讯数据中心
2020/10/19
3.7K1
不止于“算”,开放计算加速技术落地和行业赋能
类似开源改变了软件的协作与创新模式,开放计算彻底改变了数据中心硬件的设计、协作与创新。如今,开放计算已经走过十余载,全球最大的开放计算社区OCP基金会已有1.6万多名参与者、240家多家社区成员企业及5千多名工程师,项目数量已超过100个。基于开放计算标准的服务器年部署规模达到470万台,为全球数据中心提供算力占比达34.8%……开放计算的影响力与日俱增。
大数据在线
2022/12/13
3390
不止于“算”,开放计算加速技术落地和行业赋能
#数字中国万里行#数据中心就是“灵感”汇聚的地方
由E企学院主办的“2018年数字中国万里行暨北方区数据中心之旅”,聚焦中国超大规模数据中心,探访腾讯、阿里巴巴、京东、今日头条、抖音、华为、中国联通、中国移动等多家数据中心,将中国互联网、通信、制造业等多个领域的顶尖数据中心展示出来,让更多人了解互联网与云计算高速发展背后的奥秘。
IT创事记
2022/06/16
3820
#数字中国万里行#数据中心就是“灵感”汇聚的地方
推荐阅读
相关推荐
让服务器运行在最适宜温度下,元脑InManage打通IT与动环智能管理
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档