收藏文章 楼主
版块:机械制造   类型:普通   作者:化工产业技术分享   查看:106   回复:0   获赞:0   时间:2022-05-18 19:36:26

淮亚利

安科瑞电气股份有限公司 上海嘉定 201801


摘要:文章剖析了坐落北京和广州的3个大型数据中心的能耗数据,对数据中心节能存在的问题别离进行了剖析确诊。从规划及运转办理两大方面总结了现在数据中心遍及存在的共性问题,为数据中心节能供给了方向。


关键词:数据中心;节能;能效


0导言近年来跟着国家关于信息化作业的注重,作为信息化根底设备的数据中心快速开展。我国数据中心建造的数量多,建造质量也在世界上处于靠前,首要选用了世界上较好的IT设备,较好的制冷设备,较好的精细空调,较好的操控体系。可是衡量运转水平的重要目标PUE却未到达较先进水平,间隔还不小。我国制冷学会于2017年对上海市20家具有500个机架的数据中心进行了评测,大部分数据中心的PUE散布在1.6-2.3范围内。中位值是1.80,均匀值为1.97。间隔《“十三五”国家信息化规划》中提出的到2018年大型数据中心年PUE不高于1.5的要求间隔较大。不同的数据中心存在不同的问题,也有其共性的问题,这些问题在业内里已有材料反映。文章结合近期查询的数据中心为例,总结存在于节能运转中的共性问题。


1北京某IDC数据中心1.1工程简介该数据中心修建面积20000㎡,在6B#大楼地下室建有冷冻机房。装备4台离心式冷水机组、4台冷却水泵、4台冷冻水泵,室外地上建有16台冷却塔;机房空调为水冷及风冷两种精细空调体系,空调面积约6000㎡。机房内未设置冷热通道。为剖析数据中心的能效,文章对数据中心的能耗和冷水机组的COP进行了一年的监测记载,并一起对运转办理办法及办法进行了访谈,对冷冻水体系的水温改变进行了全程追寻测验。1.2能耗散布与PUE根据约一年的实测数据,该数据中心的能耗散布和PUE见表1,年PUE为1.8。对处于冰冷区域的北京,PUE值偏高。1.3数据剖析根据能耗分项数据,可以定量核算出空调体系各环节的相对联络,并进行其合理性点评,见表2。1.4首要存在的问题根据能耗数据、访谈状况以及水体系状况参数的测验成果,该数据中心的问题首要为:1)主机功率偏低。主机功率(COP值)小于4.0。2019年7月16日测验期间,冷机冷却水进出口温度3O.3℃/32.6℃,冷冻水出水温度7℃,负载百分比为71%条件下,运转工况与《蒸汽紧缩循环冷水机组》(GB/T18430.1—2007)规则的额外条件非常挨近。此条件下,主机COP应到达5.5。但主机功率仅为4.0,间隔5.5还有不小间隔。其原因与冷冻水的水质、机组保护等要素有关。冷却塔填料结垢严峻,未及时清洗,使得冷却水温度偏高。2)水泵的能耗占比过高。规划状况下,水泵的总能耗(含冷却塔)应当只要主机的30%,实践运用中却到达62%。冷水机组的防冻水温差、冷却水温差均只2℃,阐明水流量偏大,水泵应可以削减流量。一起测验得到的水泵功率只要50%。3)分水器与集水器之间存在水量旁通。根据现场测验,结尾机房内水冷空调的进出口温度一般为7℃/14℃,温差到达7℃以上。但冷冻站集水器内的温度却为8.8℃。阐明分集水之间存在很多的混水,供给到用户的水量短少。4)机房内精细空调能耗过高。精细空调的能耗比冷水机组能耗还高。一般结尾空调能耗应操控在空调体系总能耗≤25%以内,现已大大超出这一份额。依照冷冻机供冷量才能核算,2台冷水机组悉数敞开时,机房内的风冷空调可以封闭,但机房内一切风冷精细空调依然悉数敞开运用。风冷精细空调的运用弥补了部分冷量,却耗费了很多的电力。导致风冷空调敞开的原因包含:机房内温度散布不均,有的机房不同地址温差相差10℃,存在部分热门。部分热门的存在,拉低了房间全体温度,加大了供给才能需求。一起因为供给到水冷空调的水量短少,使得水量空调的供冷量短少,因此风冷空调不得不敞开。5)机房内选用漫灌式气流组织,没有设置气流冷热通道。送回风温差小,只要3℃,加大了送风运送能耗。6)短少智能化办理手法。虽然有动力环境监测体系,但短少节能办理的智能化操控体系,也没有一致会集的能耗数据监测体系,使得办理人员对设备运转状况无法详尽了解。运维人员的首要精力放在保平安运转上。7)未运用天然冷源。北京区域冬天天然冷源资源丰富,但未采纳任何技能办法加以运用。


表1北京某IDC数据中心能耗数据


表2北京某IDC数据中心分项能耗状况


2广州某云核算数据中心2.1根本状况广州某云核算数据中心坐落广州市萝岗区。数据中心的空调面积约35000㎡(其间一期15000㎡)。修建9层,其间数据机房坐落3、4层。数据中心选用会集冷源,冷冻站坐落大楼1层,设有4台离心式冷水机组、1台螺杆式冷水机组,配有5台冷却水泵、5台冷冻水泵,5台冷却塔坐落5楼屋面。机房内设有水冷空调机组,经过静压箱送风,共78台精细空调机组。机房内气流分设冷热通道。空调体系日常办理选用手动办理,短少主动操控渠道。除配电房有首要回路的电能监测外,关于能耗监管短少分项计量,不能进行细化剖析。2.2能耗散布及PUE选用瞬时电量进行PUE核算,其值为1.77。数据中心根底设备设备(暖通空调)的功率总和为1099kW,占数据中心总耗电的44%,见表3。2.3PUE点评数据中心的电气损耗为466kW,到达数据中心总能耗的13%。变压器损耗6%,UPS损耗12%、列头柜配电体系损耗7%,这部分的损耗较大,应在电气办理和设备装备上改进。暖通空调体系中冷机电耗占51%、精细空调为26%、水泵+冷塔为21.4%。暖通空调体系内部占比较为合理。但能耗整体份额依然较高,具有调理改进PUE的空间。2.4存在的首要问题1)冷水机组功率未达标。《公共修建节能规划规范》(GB50189—2015)中4.2.10节要求电机驱动紧缩机的蒸气紧缩循环冷水(热泵)机组,在额外制冷工况和规则条件下变频离心式冷水机组功用系数(COP)不该低于5.5。而现有机组均匀能效系数为5.10,也未到达5.5。在机组运转工况优于额外工况的条件下,仍不满意节能要求。根据访谈介绍,机组每年清洗2次,进行机组水质保护,水质应无问题。应当是机组运转工况不合理形成。2)冷却水泵的功率低。冷却水泵的功率只要约45%,与规划要求的70%间隔较大。冷却水泵的额外扬程30mH₂O,但实践扬程只要15mH₂O。水泵扬程装备过高,误差较大。冷却塔投入运用时间为2017年,设备状况杰出。冷却水出口温度与空气湿球温度差值约为2.3℃。冷却塔功率较高。3)机房精细空调敞开台数过多。机房精细空调能耗占暖通体系能耗30%以上,标明精细空调运转不行合理。现在精细空调悉数敞开,没有依照回风温度进行操控。4)短少智能化办理手法。虽然有动力环境监测体系,但短少节能办理的智能化操控体系,也没有一致会集的能耗数据监测体系,使得办理人员对设备运转状况无迭详尽了解。运维人员的首要精力放在保平安运转上,短少冷水机组、水泵、冷却塔的节能运转战略。表3广州某云核算数据中心分项耗电状况3广州某数据中心3.1根本状况该数据中心坐落广州市内,分为1#楼和2#楼,于2009年建成运用。均选用会集式冷水机组进行供冷。1#机楼:该数据中心1层冷冻站设有2台特灵螺杆式冷水机组,配有3台冷却水泵、3台冷冻水泵,房顶露台设有1台蒸发式冷凝螺杆机、2台冷冻水泵、2组冷却塔;机房均选用上送风、侧回风的气流方法。2#机楼:该数据中心1层冷冻站由1期及2期兼并组成,1期制冷设备为2台约克螺杆机组及配套的3台冷冻水泵、3台冷却水泵、1组冷却水塔;2期制冷设备为2台约克离心式冷水机组及配套的3台冷冻水泵、3台冷却水泵、2组冷却水塔;2#机楼调研的数据机房是2至7层的数据机房;其间4层401/402机房选用上送风、侧回风的气流方法,其它机房均选用地板式机柜送风,上回风加侧回风的气流方法。整套制冷体系无BA自控体系,一切制冷设备运转形式需人工操作,也短少能耗计量体系。3.2能耗散布及PUE该数据中心的能耗品种均为电力。经过短期测验取得1#机楼和2#机楼的电耗散布。表4、表5给出了1#机楼的详细耗电数据。3.3PUE点评1#机楼和2#机楼的短时PUE为1.76-1.86,因为测验在冬天进行,机组处于有利的运转条件,全年PUE值必定高于现有PUE值,阐明该数据中心的能效水平较低。其间UPS和HVDC的负载率低,损耗过大,到达总能耗的约11%。水泵能耗占冷水机组能耗的50%;精细空调的能耗则与冷水机组的能耗适当。阐明整个制冷体系功率较低。3.4存在问题1)UPS和HVDC的负载率低,形成损耗过大。UPS和HVDC的损耗到达总能耗的约11%。HVDC遍及负荷率均匀在35.50%,UPS均匀负荷率为24.86%。应发动高压直流的休眠睡醒功用,根据极值设定,让HVDC整流模块封闭休眠不必要敞开的整流模块,可以大大下降HVDC的损耗。主张在80%~90%发动模块睡醒功用,30%~40%发动模块休眠功用,设置48h休眠模块与运转模块轮换一次。减低UPS损耗,若UPS的负荷量低于25%时,可以封闭1台UPS,这样就可以下降1台UPS的损耗量。2)冷却塔冷却作用欠安。冷却塔的迫临度过大,在冬天室外湿球温度13℃时,迫临度到达12.5℃,冷却水塔的填料有损坏以及外表结垢现象较为严峻,应替换及定时清洗,可进步冷塔冷却才能。3)水体系水质较差。水体系保护不及时,导致水质较差,影响冷水机组功率。应定时进行水质的清洗和保护。4)结尾精细空调敞开过多。机房内精细空调悉数敞开,没有根据机房内的实践热量进行送风的调理,送风温差小,送风功率低,送风能耗高。5)水泵未变频运转。水泵定频运转,供水量偏大,使得运送能耗较高。6)选用漫灌式气流组织,气流旁通率高,冷空气未送到机柜内部,严峻影响送风功率。7)短少节能办理手法及运转战略。短少对室内外环境运用条件、设备状况和运转作用的监测,全赖手艺粗豪式运转,节能作用差。表41#机楼整体能耗表51#楼空调体系能耗散布4数据中心节能存在的首要问题经过以上事例及各地其它数据中心的能耗状况,可以看到有些问题遍及存在于现在的数据中心中。4.1体系规划方面数据中心规划在产品选型、体系安全性与可靠性规划上都满意了国家节能规划要求和专业规划要求,但规划的精细化程度不行。为了保证安全,选用设备时殷实系数较大,但运转功率偏低。1)水泵的选型遍及偏大,导致水泵实践作业状况点违背高效区,水泵运转功率较低。大大都只在50%左右。2)水管路体系规划粗暴,没有进行详尽规划核算,水路流量分配不满意预期要求。有些精细空调的水流量严峻短少,水温差到达6℃~8℃以上。3)一些早年建成的数据中心的冷热通道没有严厉分隔规划,导致送风气流短路。不只影响送风功率,也影响了机房空气温度,恶化了运转环境。4)大都数据中心没有规划天然冷却体系,没有充分运用天然资源。实践上因为数据中心需求全年冷却,在我国大部分区域(除广东、福建等少量区域)都可运用天然冷源。而运用天然冷源是现在下降能耗的有用办法。5)没有建成能耗分项计量体系。运用者关于能耗的散布不清楚,对动力功率无从知晓。6)操控体系短少有用的调理战略。操控体系智能程度低,只是支撑泛泛的启停操控等。在操控战略规划时,短少空调专业的支撑。7)选配的电气设备容量偏大。UPS的运用容量低,导致损耗多。变压器也存在相同问题,使得运用功率低,损耗严峻,电气设备损耗占总能耗的10%左右。4.2运转办理方面调研成果标明,运转办理方面存在的问题更多,在每一个环节都会出现问题。运转办理部门一向把数据中心的安全运转摆在重要方位,往往着重安全,而忽视了节能,导致许多节能办法不敢运用,这是阻止节能办理水平进步的重要原因之一。实践运转中应掌握好安全与节能的联络。经过了解安全危险因子,了解节能办法的影响程度,可以加深对安全出产和节能技能的科学认识,在安全可控的前提下,加强节能运转办理。1)设备保护不及时冷却水体系、冷冻水体系的水质没有严厉的质量办理。虽然大都单位有专业的水质保护,但水质的质量办理形同虚设,没有清晰的查核查看规范。冷却塔填料结垢非常遍及,也没有及时清洗。冷水机组的实践运转功率与机组标称值之间相差较大,冷水机组运转功率有待进步。风冷精细空调体系也需求及时保护保养,但许大都据中心短少对精细空调的专业保护,使得运转功率逐年下降。2)管路及附件保护不到位,疏于操作水路上的阀门不管是手动仍是主动形式,遍及存在封闭不严现象,导致水流旁通。不只糟蹋水泵功耗,还下降了机房精细空调制冷量。温度与压力计量外表大都不能运用,形同虚设。台数切换时对应阀门也需进行切换,但因为加大了操作人员的作业量,一般不会执行这项操作。3)粗豪式运转办理不管是否需求,机房内精细空调悉数敞开运转,使得精愛空调的能耗与冷水机组能耗适当,大大超出送风体系的能耗规范。数据中心都规划安装了水体系变频设备,可是实践运转未执行,不能根据水体系温度的改变进行变流量运转。水体系运送能耗约占冷水机组能耗的50%以上,不能随主机负荷随动调理。冷水机组的启停数量也是彻底经历化运转,机组台数的挑选短少根据,机组不能在高效区运转,使得机组运转功率不高。冷水机组的供水温度没有跟着室内负荷改变进行调理,根本全年稳定温度运转。机房内温度设置偏低。着重运转的安全性后,使机房内回风温度较低,如有的机房要求保持在22℃左右,这样冷水机组出水温度一向压低在7℃,天然冷却的空间也大大紧缩。以上这些要素交错在一起,往往形成数据中心的能耗居高不下。5安科瑞为数据中心供给的电力监控解决计划5.1精细配电办理解决计划AMC系列数据中心精细配电体系是针对数据机房结尾规划的,可以归纳收集一切动力数据的智能体系,为交直流电源配电柜供给准确的电参量信息,并可经过通讯将数据上传到动环监控体系,完成对整个数据机房的实时监控和有用办理,为完成绿色IDC供给可靠保证。5.1.1沟通体系1)功用要求:遥测:输入分路的三相电压、三相电流、有功功率、有功电度;输出分路的单相电压、单相电流、有功功率、有功电度;遥信:输入分路的过压/欠压,缺相,过流,输入分路和输出分路的开关状况,具有电流、功率需用量剖析和计算,完成电压、电流、功率等参数的越限报警功用。2)装备计划-示意图装备计划多功用外表PZ72L-E4电流互感器AKH-0.66-30I-XXA/5A5.1.2直流体系1)功用要求遥测:输入分路的电压、电流、功率、电度;遥信:输入分路的过压/欠压,输入分路的熔丝状况,具有电流、功率需用量剖析和计算,完成电压、电流、功率等参数的越限功用。2)装备计划-示意图装备计划多功用外表PZ72L-DE霍尔传感器AHKC-F-XXA/5V开关电源SBD-30(48V)5.2AMB智能小母线办理体系数据中心小母线体系是数据中心结尾母线供配电体系的俗称。近年来,跟着数据中心建造的快速开展和更高需求,智能小母线体系逐步被使用于机房的结尾配电中,具有电流小、插接便利、智能化程度高级特色,即插式插接箱给各个机柜内的PDU分配电。始端箱和插接箱内可设置监测模块,将数据上传至动环监控中心。1)沟通体系功用:遥测:三相电压、电流、有功功率、无功功率、视在功率、功率因数、有功电能、无功电能、电缆温度,体系频率、零序电流、零地电压、漏电流、机柜温度、机柜湿度、开关状况、电压/电流谐波含量、电流/功率;遥信:过电流2段阀值越限、过/欠压、过功率告警、缺相、过频率、欠频率越限、零地电压、零线电流、温/湿度告警,开关状况、开关跳闸;2)直流体系功用:遥测:电压、电流、功率、电能、电缆温度、漏电流、机柜温度、机柜湿度、开关状况、电流/功率;遥信:过电流2段阀值越限、过/欠压、过功率告警、缺相、温/湿度告警,开关状况、开关跳闸;




参考文献:

【1】张晟,李超,梁刚烈,顾砒,龚延风.数据中心机房节能运转现状与问题剖析【2】钟聪睿.互联网数据中心(IDC)机房整体规划中的节能规划研讨信息通讯,2016(8):241-242【3】卜东洁,王克勇,潘俊等.数据中心机房升溫的研讨[J].修建节能,2015(5):31-33【4】安科瑞数据中心IDC配电监控解决计划.2020.03版


笔者简介:

淮亚利,现任职于安科瑞电气股份有限公司,首要从事数据中心智能小母线监控的使用。



部分来源于网络,如有侵权请联络删去。


全站外链: TEC传感器 | 猫掌外链
 
回复列表
默认   热门   正序   倒序

回复:关于数据中心机房节能运转现状与问题剖析

网站公告

近期本站被人为恶意注册及发布垃圾帖,每一个发帖都会经过审核,一经发现违法或垃圾帖的用户,帖子将被删除或封号,请大家共同维护互联网环境,共创美好互联网未来。

详细的发帖规则请阅读:

《小猪外链网发帖规则》

《小猪外链网最新金币规则》

注:本站严禁发布灰色违禁违法内容,如发现立刻永久封号,如开通会员的概不退款。

Powered by 小猪外链网 8.3.15

©2015 - 2025 小猪SEO外链平台

备案号:浙ICP备17015142号

免责申明:本网站内容由平台入驻会员撰写,除创始人账号外,其他观点仅代表作者本人,不代表小猪外链网立场。如果内容涉及侵犯其他公司、团体的利益、请联系小猪SEO外链网客服举证删除

您的IP:18.191.103.248,2025-05-06 19:39:14,Processed in 0.28325 second(s).

各位站长请准守小猪SEO外链网的发帖规则,文明理性发言

外链优化

用户名:

粉丝数:

签名:

资料 关注 好友 消息
分享
已有0次打赏