Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >上海数据中心要求PUE小于1.3,怎么办?-孙长青

上海数据中心要求PUE小于1.3,怎么办?-孙长青

原创
作者头像
数据中心DATACenter_PUE-POE
修改于 2019-09-06 06:15:02
修改于 2019-09-06 06:15:02
4.5K0
举报

关于上海数据中心新政PUE小于1.3的节能对策解读 钛基数据设计总监 孙长青

1、事件背景 《上海市推进新一代信息基础设施建设助力提升城市能级和核心竞争力三年行动计划(2018-2020年)》的通知,引起了数据中心基础设施圈内各个层面的人热烈解读,从中,有人看到希望,有人看到了危机,有人看到了数据中心发展的趋势,有人看到了上海有关部门对数据中心的态度。 其中有一段话,深深的吸引了大家的眼球,是关于基础设施的要求:推进数据中心布局和加速器体系建设。统筹空间、规模、用能,加强长三角区域协同,布局高端、绿色数据中心,新建机架控制在6万个,总规模控制在16万个。推动数据中心节能技改和结构调整,存量改造数据中心PUE不高于1.4,新建数据中心PUE限制在1.3以下。开展计算资源布局规划和资源配置方案研究,实施技术试验及模式研究。依托数据中心布局,建设基于中央处理器(CPU)、图形处理器(GPU)等的计算中心,面向人工智能的计算加速资源占新增数据中心机架总量的50%。 其中最让人揪心的,是新建数据中心PUE限制在1.3以下,这个数值代表什么,对数据中心行业熟悉的人们都心里有数,那是上海有关部门对节能的极致追求,如果按照传统的成熟方案进行设计,几乎是不可能达到1.3的要求的,那就是要逼迫从业者采用更加有效的节能方案。 由此,可能给全国数据中心行业带来一次节能技术的革命。 2、PUE的前世今生 首先,让我们来看看PUE的由来,在2007年的时候,美国绿色网格(The Green Grid,IT专业人士的非营利性贸易组织,旨在满足数据中心和整个信息服务交付生态系统的电力和冷却要求,不支持任何特定于供应商的产品或解决方案,提供有关旨在提高整体数据中心效率的最佳实践,指标和技术的建议。)为了更好地了解和提高现有数据中心的能效,认识到建立数据中心效率指标的重要性,并由此为提高每瓦性能的技术指导提供理论支持。理想情况下,这些指标和流程将有助于确定在需要新数据中心之前是否可以优化现有数据中心。由此,提出了PUE的概念,即Power Usage Effectiveness(能源使用效率),从那时起,PUE已在业界得到广泛采用。 下面来看PUE的定义:能源使用效率,数据中心IT设备和配套基础设施的电量或能量和除以由设计人员按企业采用的标准计算获得的IT设备电量或能量之和。业内一般通用的,多指整个数据中心包括IT设备和配套基础设施的年耗电量除以IT设备年耗电量。 PUE计算公式如下: PUE =机械负载系数(MLC)+电气负载系数(ELC)+ 1.0 这里所有因素都是按IT负荷除以的比率: •1.0表示标准化的IT负载。实际上,这是IT负载因子(ILF),但始终为1.0。 •机械负载系数(MLC)是制冷设备、泵、风机等消耗的总能耗除以IT能耗,如下:

其中,制冷能耗(kWh)=场地内通过蒸气压缩、通风、减湿、蒸发、吸收和吸附等方式实现制冷和加湿所耗费的能耗总和;不计算冷却塔底盘加热器的能耗。当未采用电制冷时,燃料化学能耗或热能耗须转换为kWh。(ASHRAE 90-4P节能标准-2016) •电气负载系数(ELC)是开关设备,不间断电源(UPS),配电单元(PDU)等消耗的总能耗除以IT能耗。 通常,电制冷时,电制冷机组消耗的能量将占到整个制冷系统的60%90%。而机械负载系数,在不同的架构下,通常能贡献的数值范围可达到0.051,波动范围较大,是影响最终PUE数值的核心因素。 3、应对策略 应对这个PUE数值要求的策略,就得从核心因素下手去解决,也就是机械负载系数,通俗的讲,就是从暖通空调的制冷方案下手。当然,电气负载系数也不容忽视,可按采取节能措施之后,ELC值约为0.05考虑。 在选取对应策略之前,需要详细分析上海地区室外参数,上海地区室外极端湿球温度31℃,极端最高温度39.4℃,极端最低温度-10.1℃。由中国气象参数集的数据,可查得上海地区一年内8760小时的逐时气象参数,经统计,其湿球温度的分布如下:

其干球温度的分布如下:

在上海气象参数下,要想提高PUE,就得想办法降低冷机部分的用电量,或采取延长自然冷却时间的措施,可选的方案有如下几种: 1)采用三联供系统 在明确PUE的定义之前,有人认为可以通过三联供的方式,通过发电机产生的余热驱动溴化锂机组制冷,可以将电制冷机组部分的电量省去,在计算PUE时,将获得极大优势。这种三联供形式的余热利用,不属于直接的化学燃料燃烧能耗,在计算PUE中,可否从制冷部分的能耗中直接剔除,尚需要与上海有关方面进行核实认可。如果能获得认可,将是获得低PUE值的捷径。 现按PUE计算中不考虑化学燃料的消耗,来做一下PUE分析。 如下图所示,一个常规采用自然冷却的数据中心,PUE达到1.47的某数据中心,各项能耗占比情况:

注:图中,1代表IT年耗能占比,2代表冷机年耗能占比,3代表水泵冷塔等年耗能占比,4代表精密空调及新风等年耗能占比,5代表电气输送损耗年耗能占比。 由于有一定时间的自然冷却,冷机并不是全年运行,其所占比例有所降低,但是其比例仍然不低,如果采用三联供溴化锂机组,则冷机部分能耗将进一步降低。以1000冷吨即3500kw左右的冷机耗电功率来比较,功率消耗极大的降低了,如下表所示:

在其他所有条件不变的情况下,将电制冷的冷水机组更换为溴化锂冷水机组,冷机的年耗电量变为原来4%所有。则新的能耗占比图将变为如下所示:

此时的PUE已经有原来的1.47,提高到了1.23。 由上可知,上海地区采用三联供技术,完全可以实现年平均PUE低于1.3以下,只要有关部门认可化学燃料不计入PUE计算,是可行的应对策略。

2)采用间接蒸发冷却 模块机房空调设计参数设定为送风25℃,回风38℃。 采用间接蒸发冷却系统,在室外湿球温度比送风温度低6℃的情况下,即室外湿球温度达到19℃可停止压缩机运行,进入自然冷却。在室外湿球温度低于31℃的时候,即可进行部分自然冷却,对38℃回风进行预冷处理。基于上海地区的室外气象参数分析,全年均可以进行自然冷却,一年中的35.8%(3140小时)的时间可以进行半自然冷却,一年中的64.2%(5620小时)可以进行完全自然冷却。 一年自然冷却时间详见下图:

间接蒸发冷却机组示意图:

机组放置及气流组织示意图如下:

PUE分析及计算  间接蒸发冷却系统,机房送回风温度25/38℃,分析上海地区全年8760小时的气象参数,得到结果如下:

 根据全年8760小时的设备运行能耗,分析计算PUE值如下:

间接蒸发冷却系统PUE值较低,并且由于无空气直接进入机房,不需要频繁更换过滤单元及化学过滤填料,相对水冷系统,蒸发量较小,其蒸发量约为水冷系统冷却塔蒸发量的1/3,节水效果明显。但初投资很贵,占地面积较大,且单机组功率不太高,200kw左右的机组,重量可能能达到5吨以上,不利于设备搬运维修。 由计算可知,上海地区采用间接蒸发冷却技术,完全可以实现年平均PUE低于1.3以下,是可行的应对策略。 3)采用氟泵自然冷技术 针对存量改造数据中心PUE不高于1.4的要求,目前存量数据中心中,大型的数据中心,都对节能要求比较严格,大多采用水冷系统,且都会伴随采用自然冷却技术,基本能满足不高于1.4的要求。而对于小型的数据中心,大都采用的是风冷直膨式精密空调,并没有自然冷却的措施,而风冷系统本身的效率又较低,导致大部分小型数据中心的PUE停留在1.8左右。所以,针对小型数据中心,将面临严苛的考验。 氟泵自然冷技术的出现,就是针对小型数据中心的一项节能改造技术,氟泵自然冷给传统的风冷直膨式空调系统插上了自然冷却的翅膀,使它飞向了更高的节能空间。当室外环境温度低于一定温度时采用氟泵代替压缩机运行,制冷剂的循环过程中无气体压缩及节流降压过程,利用氟泵克服制冷剂管道的阻力实现制冷循环,达到自然冷却的目的。其原理图如下:

下表为杭州某机房改造为氟泵自然冷前后,单台精密空调室内外机的能耗差异: 改造前年耗电量:

改造后年耗电量:

改造后的年PUE,达到了1.38,满足规定的存量数据中心小于1.4的要求。 所以,针对存量改造的小型数据中心,氟泵自然冷技术也可满足PUE不大于1.4的要求。 4)其他节能方案 当然,随着探索的深入,应该会有更多的节能方案可以实现降低PUE的目的,比如: A、液冷技术,有为数不少的数据中心已经开始小规模实验性质的在推广应用,其节能效果是直接芯片级的节能方式,大大提高了散热效果,降低了能耗,由于没有IT机柜风扇、精密空调、冷机等制冷耗能部分,可以实现直接新风冷却或者冷却塔冷却,全年自然冷却,PUE将可实现极大的降低,可大大小于1.3的PUE要求。 B、高温服务器技术,此技术也有不少数据中心在做尝试,小规模实验性质的应用,其节能思路是让服务器能承受高温条件,当能适应的温度足够高的时候,将可以实现完全不用冷机制冷,而只需要通风或全年自然冷却的冷却盘管,就可以解决数据机房的散热问题,此方案下的PUE也将极大的降低,实现远小于1.3的PUE要求。 C、在采用常规服务器的情况下,进一步放弃对舒适性的要求,适当的提高机房内的进出风温度,进而提高冷冻水供回水温度,延长自然冷却的时间,再结合背板制冷等贴近IT机柜的节能技术,也可实现PUE小于1.3的要求。 4、结论 上海地区的气象条件,要想实现新建数据中心PUE小于1.3,存量数据中心PUE小于1.4,传统的常用制冷方案基本无法满足要求,不过,就目前相对成熟的技术来说,至少有几种制冷形式,是可以满足上海市对PUE达到1.3或1.4的要求的,还有其他的节能方案也能实现此目的,在将来,在面临政策压力下,可能会加快新技术的普及应用。 总之,尽管道路是曲折的,可通往罗马的大道是宽阔而多样的。

《上海市互联网数据中心建设导则》也对一些节能措施进行了鼓励,如果采用了其规定的节能措施,PUE的限值可以适当放宽,如下图所示:

结合这些鼓励措施,可以得到如下结论:

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
PUE指标能准确衡量数据中心能效吗?-关于POE的设想-孙长青
孙长青,注册暖通工程师,高级工程师,规划设计部总工程师,IDC单位设计总监等,有多年从事数据中心规划设计、咨询顾问、甲方自建设计部等全过程的实战经验,对数据中心有一定的了解,同时,做过10多个数据中心的Uptime设计认证工作,对国标GB50174及Uptime理论多有感触,对数据中心能评指标、IT负载率、数据中心蓄冷系统等有些了解,对数据中心如何降低PUE也略有经历。经过总结多年来的实战心得,方有此文,以便大家更加了解数据中心节能的核心理念,同时对国情和国际理论间存在的差异有所认识。
数据中心DATACenter_PUE-POE
2019/08/20
1.4K0
PUE指标能准确衡量数据中心能效吗?-关于POE的设想-孙长青
“电老虎”数据中心,AI如何发挥作用?
在过去几年,一座座数据中心拔地而起,大规模的服务器串联而成的计算系统支撑了海量的数据处理和运算。数据中心机架数量由2016年的124万架上升至2019年的227万架,四年间上涨了83.1%。
科技云报道
2022/04/16
4270
“电老虎”数据中心,AI如何发挥作用?
能耗指标与数据中心规模-孙长青
随着国家对数据中心的规范化,各地相续出台了一系列能源措施,特别是一线重点城市,在电力紧张的情况下,都相续出台了限制措施,包括明确的更低PUE的要求,比如:
数据中心DATACenter_PUE-POE
2019/08/20
2.1K0
能耗指标与数据中心规模-孙长青
腾讯数据中心制冷节能的十八般武艺——下
(本文内容接《腾讯数据中心制冷节能的十八般武艺——上》) (备注:图片带播放图标的均有视频介绍,视频链接为: http://v.qq.com/vplus/51389fdde8883a85bcfe344f11a106c5/foldervideos/em6000001jms4px, 视频搬运来自youtube) 三、数据中心制冷节能技术现状与趋势 1、海水自然冷却,位置为功能服务 Green Mountain Data Center: 位于挪威西南角,常年利用8℃的深层海水(75米以下),对数据中心进行制
腾讯数据中心
2018/03/16
1.9K0
腾讯数据中心制冷节能的十八般武艺——下
腾讯天津数据中心余热回收应用初探
引言 随着人工智能、云计算,大数据等信息技术高速发展,大型数据中心不断涌现。当前全球数据中心数量已超过400万个,其中超大数据中心已超过500个;预计2020年,全球数据中心耗电量将占全球总用电量的5%;截止2018年底,中国数据中心服务器装机量为1200万台,国内数据中心总耗电量高达613亿度。如何在高能耗数据中心寻找节能空间,缓解当前社会能源需求紧张,促进全球能源合理利用,是数据中心从业者不断探索的方向。本文以腾讯天津数据中心为例,介绍余热回收原理及其成熟应用方案,秉持“科技向善”的愿景,提出数据中心
腾讯数据中心
2020/01/03
6K0
腾讯天津数据中心余热回收应用初探
数据中心 PUE 优化模型生成服务:AI 浪潮下的数据中心的省钱攻略,就用这几招
一般来说,数据中心 3 年的电费可以再造一个数据中心,因此节电是数据中心的一个永恒的话题。传统的节电技术基本已经触及到了天花板,AI 节电是现在以及将来的技术趋势。AI 调控的是数据中心制冷系统,不仅要控的好能节能,还要控的安全。本文我们将分享华为 NAIE 数据中心 AI 节能技术,以及如何支持技术在不同局点的复制。
白鹿第一帅
2022/04/13
1.5K0
数据中心 PUE 优化模型生成服务:AI 浪潮下的数据中心的省钱攻略,就用这几招
深度剖析Google数据中心如何利用神经网络压榨PUE——下
理论模型与实验结果高度吻合 综前所述,可通过控制变量法建模仿真,从而得知各个运行变量参数对数据中心PUE的影响。这种灵敏度分析被用于评估某一参数变化带来的影响,并用于确定其最佳的设定值。下面的这些所有测试结果已被实际得到了验证。 图8(a)IT负载和PUE之间的关系 图8(b)运行冷机数量和PUE之间的关系 图8(a)展示PUE和服务器IT负载之间的关系,在0%到70%负载范围内PUE值快速降低。但在70%以上负载范围时PUE值却逐渐平缓。这个特点也在Google数据中心的历史PUE数据中得到验证: 由
腾讯数据中心
2018/03/16
2K1
深度剖析Google数据中心如何利用神经网络压榨PUE——下
详细讲讲 | Mini T-block的空调制冷系统
导语 Mini T-block是T-block的最小颗粒度产品,整体IT负荷约50~100kW。如果把mini T-block 看作是一个人,腾讯智维是指挥机能高效运作的大脑、结构组件是骨骼,配电系统犹如血液循环系统提供动力,而制冷系统则是负责带走热量的生理机制。 有人说你们不就是个集装箱数据中心吗?我想回答“是,也不只是”。举一个“不只是”的例子:有别于传统的集装箱空调设计,mini T-block采用了高效节能的间接蒸发冷却技术。掰开来讲讲,还有这些特点想告诉你: 一 安全可靠性高 1.配置间接蒸发
腾讯数据中心
2019/06/17
3.7K0
详细讲讲 | Mini T-block的空调制冷系统
三大谷歌欧洲数据中心究竟如何做到100%自然冷却
分析谷歌公布的这些图表(a)、(b),纵向看,它在全球各地的多个数据中心 PUE 控制都已游刃有余;横向看,PUE曲线波浪向下,说明谷歌数据中心的运营仍在逐步改进、不断优化,这种运营是长期的精细化调优的过程。这些图表的另一个显著信息是,其各个数据中心的 PUE 有着一个规律的生物钟,不管是以季节,还是以天、小时为时间颗粒度单位,都表现出较大的波动性规律。这说明 Google 数据中心的自然冷水平高超。它基于室外自然环境温度,尽量利用外界冷源带走热量而不启动机械制冷,在散热方面只给够用的冷量,躬行节俭。
腾讯数据中心
2018/03/16
2K0
三大谷歌欧洲数据中心究竟如何做到100%自然冷却
京东自建数据中心核心技术解密——基础设施篇
京东第一个自建数据中心是位于宿迁的京东云华东数据中心,整体由4个模块和1栋综合大楼组成,总占地面积将近6万平方米,总投资30亿元。 可以提供20万台的服务器安装和运营能力,存储能力不小于32EB,计算
京东技术
2018/04/10
3K0
京东自建数据中心核心技术解密——基础设施篇
巧借东风——巽齐空调之道(上篇)
前言 沿着智能化、标准化、模块化和预制化的发展道路,腾讯于2015年起开始逐步研究和实践新型第四代数据中心T-block技术。面对T-block产品化和高效散热的需求,鹅厂“巧借东风”采用了“巽风之道”,即创新性的使用了间接蒸发冷机组作为主要的节能手段(图1)。间接蒸发冷技术可以利用高效换热芯体隔绝室内外空气进行换热,在保证室内空气质量的前提下充分利用自然冷源,而其紧凑的产品形式也确保了与T-block的完美结合,保存了高效快速的交付潜力。 (图1  间接蒸发冷却机组示意图) 从2015年起,腾讯在贵阳
腾讯数据中心
2022/06/24
1.4K0
巧借东风——巽齐空调之道(上篇)
云计算数据中心(二)
  针对云计算数据中心的特点,从数据中心的配电系统、空调系统、管理系统的节能策略和算法,以及新能源应用等方面分析云计算数据中心的节能技术,并对典型的绿色节能云计算数据中心进行介绍。
Francek Chen
2025/01/23
1960
云计算数据中心(二)
致敬经典——腾讯第三代数据中心
序言 伴随着腾讯业务的不断发展壮大,腾讯数据中心走过了21年的光辉历程,期间不断地推进了数据中心技术架构的迭代和升级。为了适应海量服务器快速、低成本的部署和运营要求。早在2012年,腾讯就推出了第三代数据中心架构——微模块架构。经过八年的应用实践和优化完善,微模块技术架构已经发展成为数据中心行业的主流技术;为腾讯第四代T-Block技术架构升级奠定了坚实的基础。本文将从运营实践的视角带领大家去回顾腾讯第三代数据中心技术的最佳实践。 什么是微模块? 微模块(Modular Data Center,MDC)是
腾讯数据中心
2020/10/19
3.7K1
穹顶之下,腾讯数据中心的绿色誓言
柴静女士的《穹顶之下》批判了漠视环境污染只求经济效益的发展模式。震撼之余,小编想告诉大家, 中国数据中心能耗 目前我国各类数据中心总数约四五十万,可以承载超过500万台服务器运行,预计2015年我国数据中心总耗电量将达到1000亿千瓦时,这相当于一个三峡电站一年的发电量。 火电占中国电力的60%~70%,也就是说,2015年数据中心预计用电量中有600~700亿度是燃煤发电。以目前中国的发电水平,生产每度电需约0.3~0.4kg标准煤,不难算出,数据中心领域全年要消耗约2000万吨标准煤,由此导致的碳排放约
腾讯数据中心
2018/03/16
1.3K0
穹顶之下,腾讯数据中心的绿色誓言
腾讯新一代数据中心T-block粉墨登场
您可能知道【腾讯的前三代数据中心】:厂房改建(传统方式)→自建园区(高压直流+free cooling)→模块化数据中心(采用MDC)。您也可能知道【腾讯的TMDC技术】(详情请戳链接《Why TMDC上》、《Why TMDC下》)。然而,业务需求、设计条件、政策导向瞬息万变,纵使过往成绩斐然,创新的步伐也不应有片刻停滞。 吾辈上下求索,以腾讯西部实验室为测试局,腾讯T-block应运而生。这既是大势所趋不可不为,也是我们打磨精品之心主动求变。 (友情提示:请在wifi环境下观看本视频,土豪请随意) 视频
腾讯数据中心
2018/03/16
10.7K0
腾讯新一代数据中心T-block粉墨登场
数据中心“能源”成本管理五招
要管好数据中心,必然需要理清纷繁复杂的成本问题。在数据中心的总开支中,“能源”(主要指电费、水费和柴油费用)为总支出的“中流砥柱”,其中又以电费为最主要开支。“擒贼先擒王”,节约数据中心的能源成本中的电费支出,是数据中心成本节约工作的重中之重。 数据中心节能管理套路,将由若干的招式组成,本文将围绕如何节约“能源成本”开展叙述,介绍节约数据中心“能源成本”入门五招。 第一招:建立属地能源成本基线 基线之于管理的意义不言而喻。没有基线,我们不会清楚某个数据是否为异常数据,哪里呈现过尖峰或瓶颈,哪些优化产生了多少
腾讯数据中心
2018/03/16
1.6K0
数据中心“能源”成本管理五招
集腋可否成裘?——浅谈IDC余热利用
如果把数据中心视作一套规模巨大的能源转换的设备,它在能量转化的过程中会释放出大量的余热。逾98%的电力损耗变成了低质量的热能,那么这些余热是否可以再利用,又如何利用呢?
腾讯数据中心
2018/09/04
5.4K5
​数据中心暖通架构发展趋势及未来液冷技术的思考
第4届中国数据中心绿色能源大会——主旨论坛“跨界融合 智驱未来”上,腾讯数据中心首席架构师林志勇老师以“数据中心暖通架构发展趋势及未来液冷技术的思考”为题发表演讲。现将精彩内容整理如下,供数据中心广大从业者学习交流。
腾讯数据中心
2023/08/03
2.7K0
​数据中心暖通架构发展趋势及未来液冷技术的思考
腾讯数据中心制冷节能的十八般武艺——上
前言 少了风花雪月的互联网光彩,也没有吸金吐银的资本运作游戏,或许它本应更加纯粹一些。也许你之前并不了解它,但它就在那里----数据中心互联网行业最后方的一块基石,一块保留了那么一点传统领域工程师情怀的地方。 今天,互联网充满了颠覆和改造事物的力量,不经意中,数据中心技术也随着这股力量扬帆起航,让我们看看它到底会驶向何方。 本文比较冗长,各位看官可以根据需要选择章节。第一部分,制冷与数据中心节能的逻辑关系;第二部分,腾讯历代数据中心采用的制冷节能技术;第三部分,国外数据中心有意思的制冷方案;第四部分,数据中
腾讯数据中心
2018/03/16
1.9K0
腾讯数据中心制冷节能的十八般武艺——上
热门话题|T-Block数据中心建设经验分享
曾宪龙:上午好,我是腾讯的曾宪龙,下面我分享的题目叫做T-Block数据中心建设经验分享,也是想借这样一个机会,向各位数据中心建设领域的专家讨教经验。简要介绍一下腾讯T-Block的基本情况,腾讯为什么要做T-Block,以及我们想要的T-Block是什么样子的。分享一下最近半年通过T-Block实践下来的感悟。 说到T-Block,我们自己认为是一个非常顺理成章的事情,十多年前我们提到数据中心可能就是这样的房间,里面有机柜,装了服务器,有空调,有地板,如果有一百台服务器这样的房间满足了我们要求,五年前
腾讯数据中心
2018/03/16
1.9K0
热门话题|T-Block数据中心建设经验分享
推荐阅读
相关推荐
PUE指标能准确衡量数据中心能效吗?-关于POE的设想-孙长青
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档