Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >“干盘管”在高密数据中心的应用前景-孙长青

“干盘管”在高密数据中心的应用前景-孙长青

原创
作者头像
数据中心DATACenter_PUE-POE
修改于 2019-11-06 02:29:54
修改于 2019-11-06 02:29:54
8360
举报

孙长青,注册暖通工程师,高级工程师,规划设计部总工程师,IDC单位设计总监等,有多年从事数据中心规划设计、咨询顾问、甲方自建设计部等全过程的实战经验,对数据中心有一定的了解,同时,做过10多个数据中心的Uptime设计认证工作,对国标GB50174及Uptime理论多有感触,对数据中心能评指标、IT负载率、数据中心蓄冷系统等有些了解,对数据中心如何降低PUE也略有经历。经过总结多年来的实战心得,方有此文,以便大家更加了解数据中心等级的核心理念,同时对国情和国际理论间存在的差异有所认识。 ———————————————————————————————————————————————— “干盘管”在高密数据中心的应用前景

随着数据中心行业的发展,IT机柜的功率密度越来越高,传统的制冷形式越来越难以满足数据中心的需求。比如传统的精密空调形式,由于受到其尺寸和制冷量的限制,以及架空地板高度的受限,空间利用率不高,无法满足更高功率密度的需求。需要其他的系统形式来满足高密机房的制冷需求。

一、常用的高密数据中心制冷形式 为了满足更高功率密度的制冷要求,继精密空调后,又出现了一些新的制冷形式,比如: 1、背板式制冷

背板式制冷盘管直接贴附在机柜出风侧,贴近末端制冷,能够布置的盘管数量可以与机柜数等同,可以满足较高机柜密度的要求。但是,盘管贴近机柜的方式,需要消耗机柜风扇的能耗,另外,一旦泄露,后果将极其严重。 2、OCU制冷

OCU制冷盘管直接放置在IT机柜正上方,贴近末端制冷,可以满足较高机柜密度的要求。但是,盘管贴近机柜的方式,需要消耗机柜风扇的能耗,另外,一旦泄露,后果将极其严重。 3、列间空调制冷

列间空调放置于IT机柜列间,贴近末端制冷,可以满足较高机柜密度的要求。但是,空调贴近机柜的方式,会占用IT空间,浪费面积,在一般换算的情况下,行间空调或者微模块的形式对比传统的精密空调形式,同样的IT功率会占用更大的建筑总面积,气流组织也不均匀,且分散布置不利于维护管理,另外,一旦泄露,后果将极其严重。 4、微模块

微模块,是列间空调的一种集成化产品,其中包含了IT机柜、精密空调、PDU、CDU甚至包含电池柜和整流柜等,由微模块厂家一体化提供,列间空调的缺陷微模块均无法避免,之所以微模块能被BAT大规模采用,个人认为,通过垄断来控制产品产业链及占据市场应该是重要因素,真正在技术上的优势并不是那么突出。

以上这些解决高密机柜制冷的系统形式,甚至包括液冷等制冷形式,都将空调水管直接引入到IT机柜附近,以便实现更加贴近的制冷,来满足更高功率密度的散热。这些水管直接进入IT机柜附近,就给管道泄漏造成电气事故带来了安全风险。 那么,有没有更好的制冷形式来避开这种风险,同时满足制冷需求呢? 先来看看其他行业制冷形式,有没有成熟可用的方案可供参考。比如,电子洁净厂房行业,电子洁净厂房对制冷环境的要求,并不亚于IT机房对制冷环境的要求,其对温度波动范围、空气质量、洁净度控制都比IT机房要求要高,对安全可靠性的要求也不低。

二、“干盘管”在洁净厂房中的普遍应用 洁净厂房的单位冷负荷也较高,500w/m2以上的单位冷负荷也很常见,且一般情况下冬季也需要供冷;其对围护结构严密性要求非常高,并且要求结构尽量不产生尘、不积尘;循环风量大,气流分布要求均匀,对气流组织的要求比较高,特别是高洁净度要求的洁净室,需要单向流的风量进行控制;由于电子产品的制造工艺对温、湿度的变化极为敏感,所以空气参数的波动要控制在极小的范围内,因此,自控系统如DDC、PLC 等在洁净系统控制中有着不可忽视的作用。 举个对比的例子,《数据中心设计规范》中规定,主机房的空气含尘浓度,在静态或动态条件下测试,每立方米空气中粒径大于或等于0.5μm的悬浮粒子数应少于17,600,000粒。此含尘浓度的控制,换算到洁净厂房的洁净等级,刚好为8.7级,洁净厂房的最低等级为9级,此洁净度在洁净厂房等级中仅仅属于入门级要求。

另外,由于有相对接近的基础条件,《数据中心设计规范》便是由以洁净厂房设计为主的中国电子工程设计院主编,且中国数据中心的发展,中国电子工程设计院等培养的人员也做出了不小的贡献,其人员遍布数据中心全生命周期的各个阶段,推动了行业的发展。 可见,电子洁净厂房的制冷形式在一定程度上在数据中心行业是有借鉴意义的。 在电子洁净厂房的制冷形式中,有一种“干盘管”的制冷形式,所谓“干盘管”,是因为在这种系统中,冷冻盘管仅承担显热负荷,其冷冻水进水温度一般在13℃以上,也就是说在室内空气的露点温度以上,盘管一般不可能产生冷凝水,属于干工况运行,所以叫其干盘管。这种系统与传统型洁净室空气处理模式相比,系统可大大简化;机房面积、高度可大大减小;空气输送能耗显著降低。 洁净厂房干盘管制冷方式示意图:

由上图可知,FFU=EC风机+过滤器,而数据中心可以直接把过滤器去掉,把FFU换成EC风机即可。 洁净厂房干盘管制冷方式接管示意图:

这种干盘管的制冷形式,盘管尺寸、盘管制冷量和盘管数量可以根据需要调整,可以远离末端设备布置,能满足较大冷负荷的制冷需求。

三、“干盘管”在数据中心中的应用形式 在数据中心制冷方面,是可以值得借鉴的制冷方式,参照洁净厂房的干盘管布置方式,IT模块机房也可以做类似的布置。

1、干盘管设置在吊顶四周,EC风机设置在吊顶

2、干盘管设置在回风夹道,EC风机设置在吊顶

3、干盘管设置在架空地板下,EC风机设置在地板

4、干盘管设置在回风夹道,EC风机设置在地板

这种布置方式,就可以根据需要来布置干盘管的型号,可以满足较大功率密度的需求,避免了精密空调因为面积空间不够而导致的条件限制。 干盘管已经在洁净厂房行业大规模使用,市场成熟度很高,干盘管价格便宜,可以大规模布置。

四、“干盘管”在数据中心中应用的优势 干盘管制冷方式气流组织均匀,末端风量调节方便,可避免产生局部热点。 干盘管的控制,通过水量控制来实现室内温度控制,按照区域将吊顶内的干盘管分成固定的几组,根据室内温度传感器控制的结果来控制相对区域单组盘管的阀门开度,从而达到控制温度的效果。通过盘管进回风温差来控制EC风机转速,控制送风温差为12℃(可调),保持进出机柜的风量稳定,有局部热点风险的位置可灵活调整加大送风量。

干盘管在同样冷负荷的情况下,比精密空调占地位置要小的多,水温12/18℃,送回风温度22/34℃。尺寸设定为2500*1500,如果4排管设置的话,175kw左右的干盘管的尺寸可以在2500宽的范围内实现,而精密空调在这个负荷下的宽度要3100以上,且盘管可以倾斜放置在回风夹道,可以做更大的尺寸和冷量。 价格方面,在上述条件下,干盘管的价格初步询价在9000元左右。

干盘管的冷负荷从数kw至数百kw都可以有灵活的选型容量,可以广泛应用。

五、“干盘管”与风墙送风的对比 另外,大家可能会拿此与曾经流行一时的风墙对比,虽然风墙也能提供较大的冷负荷,但是,其实风墙有其极大的劣势,就是送风口直接侧吹入冷通道,由于中间没有沿途的送风阀门调节,其沿程衰减特别严重,送风均匀性远不如架空地板。

干盘管制冷方式,EC风机直接在末端送入冷通道,气流组织均匀,末端风量调节方便,可避免产生局部热点。 六、“干盘管”配置的可靠性 在数据中心可靠性体系中,有《数据中心设计规范》的A、B、C三级,有Uptime的TierI、TierII、TierIII、TierIV四级,干盘管的数量和位置,均可以根据最高等级要求的A级或者TierIV级,进行物理隔离或者冗余布置的方式,达到各个等级的需求。而有些数据中心制冷形式,是无法实现最高等级要求的。在可靠性和制冷效果之间,干盘管都能做到很好的平衡。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
4kw机柜无通道封闭CFD模拟分析及优化(上篇) -孙长青
随着数据中心行业的快速发展,IT机柜的密度也在持续增长,IT机柜密度的增长,对机房内气流组织的要求也越来越严格。针对IT机房的气流组织,现在普遍的做法是划分冷热通道,至于冷热通道封闭与否,一直是业内争议的问题。毕竟进行冷热通道封闭,会带来初投资不小的增加,而在低密的情况下,费效比可能会得不偿失。
数据中心DATACenter_PUE-POE
2020/04/26
1.7K0
4kw机柜无通道封闭CFD模拟分析及优化(上篇) -孙长青
致敬经典——腾讯第三代数据中心
序言 伴随着腾讯业务的不断发展壮大,腾讯数据中心走过了21年的光辉历程,期间不断地推进了数据中心技术架构的迭代和升级。为了适应海量服务器快速、低成本的部署和运营要求。早在2012年,腾讯就推出了第三代数据中心架构——微模块架构。经过八年的应用实践和优化完善,微模块技术架构已经发展成为数据中心行业的主流技术;为腾讯第四代T-Block技术架构升级奠定了坚实的基础。本文将从运营实践的视角带领大家去回顾腾讯第三代数据中心技术的最佳实践。 什么是微模块? 微模块(Modular Data Center,MDC)是
腾讯数据中心
2020/10/19
3.7K1
SuperNAP数据中心揭秘——中
image.png 前面介绍了switch通信数据中心的总体设计思路,下面再介绍其数据中心内核心的IT微模块,根据图6所示的IT微模块示意及相关专利介绍称,其每个微模块由18个机柜构成,两侧不同供电路有两个列头柜和一个综合配线柜。switch通信微模块热通道封闭,机柜顶部采用了模块化的封闭通道组件和标准化的强弱电桥架。根据微模块机柜数及前面机柜平均功率推测,每个微模块总功率平均约为160-180KW。无架空地板以及微模块框架设计,可以支持普通机柜或者整机柜上架。较宽的单机柜功率允许范围可灵活满足用户的各种
腾讯数据中心
2018/03/16
1.5K0
SuperNAP数据中心揭秘——中
4kw机柜无通道封闭CFD模拟分析及优化(下篇) -孙长青
本文继续接上篇文章,【技术分析】4kw机柜无通道封闭CFD模拟分析及优化(上篇) 进行解析。
数据中心DATACenter_PUE-POE
2020/04/26
9060
4kw机柜无通道封闭CFD模拟分析及优化(下篇) -孙长青
藏风聚水,调和数据中心的阴与阳
摘要 数据中心运营过程中会持续产生大量的热,如何让制冷系统高效、快速地带走热量是考验运营管理人员的一道难题。在长期的运营实践中,运用CFD技术(计算流体动力学),在机房设计、运营阶段对气流组织进行建模仿真,通过分析温度场、压力场、速度场、3D气流情况等因素,寻找机房气流组织的问题根源,然后剖析原因进行优化、仿真计算,得到合理的结果,为运营优化提供决策依据,进一步提升数据中心能效利用和可靠性。 本文以实际运行的某传统机房作为案例,通过运用CFD技术进行建模仿真,分析当前情况下机房气流组问题的根源所在,提
腾讯数据中心
2020/06/01
1.2K0
气流组织优化—数据中心节能的魔术手
引言 1946年数据中心诞生于美国,至今已经历4个阶段近70年的发展历程,数据中心从最初仅用于存储的巨型机,逐渐转向多功能、模块化、产品化、绿色化和智能化。在越来越注重节能和精细化的今天,数据中心的每一个细节设计都闪耀着工程师智慧的光芒。他们对于数据中心的规划设计,不再满足于仅停留在功能这一基本的要求上,现在的数据中心你会看到更多关于节能环保及工程之美、绿色之美等设计理念。 评价数据中心的优劣,与其提供的服务质量,成本控制及绿色程度密切相关。能够提供稳定及具备高可用性的服务是对云服务商和数据中心的基本要求。
腾讯数据中心
2018/03/16
2.6K0
气流组织优化—数据中心节能的魔术手
天津数据中心群英传——之呼风唤水篇(中)
励炼之路: 空调系统的各位“大侠”桃园结义后,要想实现功成名就,长治久安,这可不是一件容易的事,一番苦心修炼,那是在所难免。 励炼一:机房温度恒定是如何炼成的? 1.1: “节能”的温度: 各位“机友”都关心服务器所处的机房环境温度是否正常?服务器运行温度是否恒定?是否有过热点存在?湿度是否合适等等。 说到“温度”,大家日常生活中都有听说:温度越低,空调越费电;适当提高温度,空调可以节能。 所以在11年的时候,在技术大牛Tuoc哥的指导下,天津数据中心运营团队与服务器运营组联合做了一个提高机房环境温度的节能
腾讯数据中心
2018/03/16
1.4K0
天津数据中心群英传——之呼风唤水篇(中)
京东自建数据中心核心技术解密——基础设施篇
京东第一个自建数据中心是位于宿迁的京东云华东数据中心,整体由4个模块和1栋综合大楼组成,总占地面积将近6万平方米,总投资30亿元。 可以提供20万台的服务器安装和运营能力,存储能力不小于32EB,计算
京东技术
2018/04/10
3K0
京东自建数据中心核心技术解密——基础设施篇
数据中心制冷的鸡肋——动态平衡阀-孙长青
在现有的空调设计中,稍微大一些的水冷系统,在末端每个精密空调的支管处均会设置一动态平衡阀,以保证系统水系统的水力平衡。
数据中心DATACenter_PUE-POE
2020/02/26
1.3K0
数据中心制冷的鸡肋——动态平衡阀-孙长青
腾讯数据中心制冷节能的十八般武艺——上
前言 少了风花雪月的互联网光彩,也没有吸金吐银的资本运作游戏,或许它本应更加纯粹一些。也许你之前并不了解它,但它就在那里----数据中心互联网行业最后方的一块基石,一块保留了那么一点传统领域工程师情怀的地方。 今天,互联网充满了颠覆和改造事物的力量,不经意中,数据中心技术也随着这股力量扬帆起航,让我们看看它到底会驶向何方。 本文比较冗长,各位看官可以根据需要选择章节。第一部分,制冷与数据中心节能的逻辑关系;第二部分,腾讯历代数据中心采用的制冷节能技术;第三部分,国外数据中心有意思的制冷方案;第四部分,数据中
腾讯数据中心
2018/03/16
1.9K0
腾讯数据中心制冷节能的十八般武艺——上
云计算数据中心(二)
  针对云计算数据中心的特点,从数据中心的配电系统、空调系统、管理系统的节能策略和算法,以及新能源应用等方面分析云计算数据中心的节能技术,并对典型的绿色节能云计算数据中心进行介绍。
Francek Chen
2025/01/23
1960
云计算数据中心(二)
数据中心专用术语词典首发!破译圈内暗语
随着互联网数据中心的蓬勃发展,IDC相关的讯息也呈几何级喷发。不胜枚举的行业术语、不拘一格的表达方式,对传递数据中心相关信息的影响已不可小觑。本文可以帮助大家更加熟悉、规范使用数据中心行业的术语。减少诸多误解,降低沟通成本。 同时,本文也可以帮助新同学熟悉数据中心行业术语、相关知识。 本文内容涵盖了电气、机柜、空调、消防、建筑、数据中心行业在内的六个子项,百余个词条。名词解释部分来源于外部白皮书、百度百科。 术语归属名词英文全称名词详细解释电气有功功率Active power在交流电路中,有功功率是指一
腾讯数据中心
2018/03/16
2.9K0
数据中心专用术语词典首发!破译圈内暗语
数据中心机房建设方案
数据中心机房总面积大约178平方米,使用面积约为123平方米,分为三个功能区域,分别为主设备机房、动力机房、操作间、钢瓶间。各间需要单独隔开。隔开后主设备机房用于放置配线柜、机柜、服务器、小型机、网络设备、通讯设备等重要设备;动力机房放置UPS、电池、配电柜等。
全栈程序员站长
2022/08/22
2.7K0
数据中心机房建设方案
腾讯数据中心制冷节能的十八般武艺——下
(本文内容接《腾讯数据中心制冷节能的十八般武艺——上》) (备注:图片带播放图标的均有视频介绍,视频链接为: http://v.qq.com/vplus/51389fdde8883a85bcfe344f11a106c5/foldervideos/em6000001jms4px, 视频搬运来自youtube) 三、数据中心制冷节能技术现状与趋势 1、海水自然冷却,位置为功能服务 Green Mountain Data Center: 位于挪威西南角,常年利用8℃的深层海水(75米以下),对数据中心进行制
腾讯数据中心
2018/03/16
1.9K0
腾讯数据中心制冷节能的十八般武艺——下
如何降低数据中心机柜的局部高热
数据中心内设备众多,内部虽然有完善的空调系统,但实际上内部温度分布是不够均衡的。即便现在的数据中心部署了出入通风道,机柜前面是入风道,后面是出风道,这样可以及时将热量带走。不过,由于不同的设备发热功率是不同的,局部区域若放置有大功率设备,容易造成机房局部区域过热现象,威胁数据中心的安全运行,甚至造成个别设备因过热而宕机、硬件损坏等严重问题,所以将数据中心机房内的温度控制在一定范围内,消除或降低局部热点是非常重要的。为保证数据中心长期稳定运行,改善IT设备的运行环境,消除局部热点、降低机柜局部温度,下面我们就来探讨一下数据中心局部热点处理的一些方案。
孙杰
2019/10/29
1.2K0
如何降低数据中心机柜的局部高热
上海数据中心要求PUE小于1.3,怎么办?-孙长青
1、事件背景 《上海市推进新一代信息基础设施建设助力提升城市能级和核心竞争力三年行动计划(2018-2020年)》的通知,引起了数据中心基础设施圈内各个层面的人热烈解读,从中,有人看到希望,有人看到了危机,有人看到了数据中心发展的趋势,有人看到了上海有关部门对数据中心的态度。 其中有一段话,深深的吸引了大家的眼球,是关于基础设施的要求:推进数据中心布局和加速器体系建设。统筹空间、规模、用能,加强长三角区域协同,布局高端、绿色数据中心,新建机架控制在6万个,总规模控制在16万个。推动数据中心节能技改和结构调整,存量改造数据中心PUE不高于1.4,新建数据中心PUE限制在1.3以下。开展计算资源布局规划和资源配置方案研究,实施技术试验及模式研究。依托数据中心布局,建设基于中央处理器(CPU)、图形处理器(GPU)等的计算中心,面向人工智能的计算加速资源占新增数据中心机架总量的50%。 其中最让人揪心的,是新建数据中心PUE限制在1.3以下,这个数值代表什么,对数据中心行业熟悉的人们都心里有数,那是上海有关部门对节能的极致追求,如果按照传统的成熟方案进行设计,几乎是不可能达到1.3的要求的,那就是要逼迫从业者采用更加有效的节能方案。 由此,可能给全国数据中心行业带来一次节能技术的革命。 2、PUE的前世今生 首先,让我们来看看PUE的由来,在2007年的时候,美国绿色网格(The Green Grid,IT专业人士的非营利性贸易组织,旨在满足数据中心和整个信息服务交付生态系统的电力和冷却要求,不支持任何特定于供应商的产品或解决方案,提供有关旨在提高整体数据中心效率的最佳实践,指标和技术的建议。)为了更好地了解和提高现有数据中心的能效,认识到建立数据中心效率指标的重要性,并由此为提高每瓦性能的技术指导提供理论支持。理想情况下,这些指标和流程将有助于确定在需要新数据中心之前是否可以优化现有数据中心。由此,提出了PUE的概念,即Power Usage Effectiveness(能源使用效率),从那时起,PUE已在业界得到广泛采用。 下面来看PUE的定义:能源使用效率,数据中心IT设备和配套基础设施的电量或能量和除以由设计人员按企业采用的标准计算获得的IT设备电量或能量之和。业内一般通用的,多指整个数据中心包括IT设备和配套基础设施的年耗电量除以IT设备年耗电量。 PUE计算公式如下: PUE =机械负载系数(MLC)+电气负载系数(ELC)+ 1.0 这里所有因素都是按IT负荷除以的比率: •1.0表示标准化的IT负载。实际上,这是IT负载因子(ILF),但始终为1.0。 •机械负载系数(MLC)是制冷设备、泵、风机等消耗的总能耗除以IT能耗,如下:
数据中心DATACenter_PUE-POE
2019/08/20
4.5K0
上海数据中心要求PUE小于1.3,怎么办?-孙长青
一种推荐的空调系统运行模式调整方法
我们知道,大型数据中心空调系统一般采用集中式供冷的中央空调,在运营前期,由于服务器使用数量较少,空调主机又不得不开启,系统能耗比重较大,PUE往往偏高。如何在前期就能把PUE降到合理水平,这是设施运营面临的挑战。 为了进一步的节能减排,我们在腾讯某数据中心的运营中,摸索出了一些空调系统运行模式的调整方法。较之原有设计,可使PUE下跌0.1-0.2。本篇将对这些调整方法当中有关“冷机水温调整节能控制”的部分,进行原理分析和方法提炼总结。 1.基础设施空调系统能耗组成 在空调系统中,各设备能耗比例大概为:主
腾讯数据中心
2018/03/16
2.1K0
一种推荐的空调系统运行模式调整方法
数据中心遏制:类型、优势和挑战
在过去的十年中,数据中心遏制在许多数据中心的实施率都很高。它可以大大提高传统数据中心冷却系统的可预测性和效率。本文将详细阐述什么是数据中心遏制、常见类型及其优势和挑战。
网络技术联盟站
2022/04/04
3510
数据中心遏制:类型、优势和挑战
详细讲讲 | Mini T-block的空调制冷系统
导语 Mini T-block是T-block的最小颗粒度产品,整体IT负荷约50~100kW。如果把mini T-block 看作是一个人,腾讯智维是指挥机能高效运作的大脑、结构组件是骨骼,配电系统犹如血液循环系统提供动力,而制冷系统则是负责带走热量的生理机制。 有人说你们不就是个集装箱数据中心吗?我想回答“是,也不只是”。举一个“不只是”的例子:有别于传统的集装箱空调设计,mini T-block采用了高效节能的间接蒸发冷却技术。掰开来讲讲,还有这些特点想告诉你: 一 安全可靠性高 1.配置间接蒸发
腾讯数据中心
2019/06/17
3.7K0
详细讲讲 | Mini T-block的空调制冷系统
互联网数据中心运营发展及实践
Kenny: 各位领导、各位专家、各位嘉宾,大家下午好! 先自我介绍一下,我叫郁智华,在腾讯负责数据中心运营工作。非常高兴今天有这个机会能够向在座各位嘉宾、领导、专家分享腾讯在数据中心运营方面的一些实践和体会,也希望能够得到大家的一些交流和指导。 如大家所了解的,以往的分享我们更多关注在规划设计、新技术方面,但在运营方面比较少。今天我们就来看下这一块的内容。 首先,我们先简单回顾一下数据中心运营这一块过去是什么情况。在2000年之前,我们的数据中心运营其实没有什么太多的规范,也没有太多的标准,更提不上什么自
腾讯数据中心
2018/03/16
2.5K0
互联网数据中心运营发展及实践
推荐阅读
相关推荐
4kw机柜无通道封闭CFD模拟分析及优化(上篇) -孙长青
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档