大型、超大型数据中心园区设计如何审查与优化

(一). 设计的优劣如何评价?
设计一般是指数据中心非IT部分的基础设施的方案设计、扩初设计、施工图设计,一般仅涉及结构、建筑、装饰装修、消防、暖通、给排水、电气、智能化等专业。随着大型超大型数据中心及园区的兴起,也会部分涉及输配电、市政及土木工程专业。
数据中心与IDC(Internet data center)可以视为基本上无区别,无论是自用型还是对外服务型数据中心,无论上层应用是IAAS,PAAS或者AAAS,已经绝少有数据中心是永久离网运行的。只是上层应用的属性不同会带来不同的网络需求而已。
超大型数据中心园区,一般至少包括三栋大型/超大型数据中心机房楼,数据中心总用电规模≥100MW。
大型数据中心园区,一般至少包括三栋大型/超大型数据中心机房楼,数据中心总用电规模≥50MW。
设计并不包含可行性研究、经济性研究、立项、规划、选址等前期工作。
(A). 设计管理KPI :
1) 设计定位及目标KPI-SLA :
(1-1). 设计与SLA
a)SLA的设计目标将根据以下综合确定:
① 潜在客户的要求
② 行业标准
③ 服务价格与利润预期
④ 实现SLA的成本
⑤ 违反SLA的代价
b)SLA设计与计算:
① SLA设计时,罚则代表的是违反SLA的代价。故障与事故、服务中断的定义往
往均根据行业标准和惯例,进行设计,并根据潜在或者客户市场反馈进行一定
的差异化设计。而实现基础SLA的成本,往往需要借助可靠性这样一个量化指
标。
② SLA中的关键设施或者服务的可靠性,可靠性要和MTBF区别开来。MTBF
(平均无故障工作时间)是统计意义上的可靠性与我们要实现的可靠性完全不是
一个概念。
③ 对于经过优秀的专业设计、建设,并有专业维护和运行团队保障的专业运营级
数据中心或者相应的云服务,在一个运营期内数据中心的故障概率实际上已经
通过专业设计、建设、测试与验收去除了浴缸曲线的前半段,通过科学合理的
设备全生命周期预测及预防性维护与更新,抚平了浴缸曲线的后半段。基本可
以认为故障概率是平均偶发的,其概率密度曲线可以认为是常数。
④ 在数据中心基础设施层面,单个系统或者设备往往是由多个元器件构成,其可
靠性应按照单个元器件分别计算后,根据可靠性模型,依据相应的串并联关系
进行可靠性的综合计算。
(1-2). 项目SLA需求:
① 满足现在及未来多种客户的需求;
② 最大程度上创造利润。
(1-3). 项目SLA设计目标分级:
① 可靠性

② 赔偿时间

③ 赔偿比例

④ 计划维护时间

2) 设计可用性KPI-SUE :
(2-1). SUE的颗粒度
将数据中心的空间利用有效性SUE(space usage effectiveness)的定义简化如下:
SUE=数据中心总建筑面积/IT(电子信息)设备直接占用建筑面积;
SUE在跨数据中心应用及特定数据中心设计和优化实践中均需要统一SUE的颗粒度,随着数据中心的蓬勃发展,其应用在颗粒度上呈现多种变化。
1)空间维度
① 总建筑面积是否包含大面积的运行维护和管理的辅助区或者行政管理区的建筑面积。
② IT占用建筑面积是否包含模块机房内空调区,或者更细颗粒度如是否包含机柜行列间空间或者机柜内电源及统一冷却占用建筑空间甚至是否包含机柜内非IT占用建筑面积。
③ IT占用建筑面积是否包含网络柜、配线柜、列头柜、行间空调等所占建筑面积。
PUE由于有国标《数据中心资源利用第3部分:电能能效要求和测量方法》GB/T 32910.3-2016统一规定,SUE,无特殊说明下,默认如下:
① 总建筑面积中应不含有大面积(超过总面积1%)的事实上承担客户办公或者总部行政管理职能的非数据中心紧密相关的建筑面积。
② IT占用建筑面积计算中应采用IT机柜占用建筑面积。
③ IT占用建筑面积计算中应不含列头柜、行间空调等非IT设备柜所占用建筑空间。
④ IT设备柜无特殊指定时,默认为标准42u19英寸机柜,单柜占用建筑面积Ao=0.6m1.2m。
⑤ 当颗粒度更细时,采用柜内服务器投影面积,统一使用Ao=0.45m
0.75m,而忽略其实际占用面积与计算Ao的差距。
⑥ 当两个或多个机柜垂直布置在一个房间内时,其机柜数计为1,功率为多个重叠机柜之和。
⑦ 不同功率的机柜,其占用建筑面积A可以下式换算
A=Ao*(2x+1)/3 ; 式中Ao为实际平均单柜占地面积;
x为机柜当量系数,x=实际机柜功率/2.5
2)时间维度:
① 年度平均
② 季度平均
③ 月度平均
当SUE用在运行阶段中时,总建筑面积可以采用已经启用或者竣工交付的总建筑面积。IT侧占用建筑面积,则启用上电机柜及实际上电功率进行相应计算。当SUE时间维度用在其他阶段时,可采用相应的业务上线或者机柜上电计划进行模拟计算。
3)负载率维度
① IT设备同时使用系数
② 冷却设备冗余系数
③ 配电设备冗余系数
4)测量维度

由于各资源成本已经习惯于折算成建筑面积,其数据积累较为丰富,因此各测量点面积,按照《建筑工程面积计算规范》GB/T50353原则计算。可直接根据图纸围护结构进行计算,由于维护结构占用建筑面积极低,对SUE影响非常低。各局部测点可忽略墙柱等围护结构厚度造成的差异。
(4-1). 标准SUE=A1/A13;
注意如果要跨数据中心应用指标应在M13点计算时,按照要求把不同机柜功率换算为标准机柜功率。
当运营方潜在目标客户不明确或者尚未明确时,往往按照白空间的产出率进行计算;
产出率 :A3/A1=SUE3/SUE; 式中SUE3=A3/A13;
(4-2). 局部SUE,往往用来评价其他非IT系统规格设计和空间布局的优劣。
(a). SUE4=A4/A13;评价空调规格、数量、维护空间等规划与布局合理性。
(b). SUE5=A5/A13;评价冷站内设备及管道规格、数量、维护与布局空间等规划与设计合理性。
©. SUE6=A6/A13;评价电池规格、数量、维护与布局空间等规划与设计合理性,由于电池承重往往局部加固,对其局部SUE的严格把控有利于降低加固区域面积需求。
(d). SUE7=A7/A13;评价变配电室内设备及管线规格、数量、维护与布局空间等规划与设计合理性。
(e). SUE8=A8/A13;评价ups室内设备及管线规格、数量、维护与布局空间等规划与设计合理性。
(f). SUE9=A9/A13;
由于守恒原则,SUE=SUE3+SUE4+SUE5+SUE6+SUE7+SUE8+SUE9
(g). 对于整体式自定义机柜,可考虑统一采用更细的颗粒度
(h). SUE’=A1/A14;
A14计算时,单柜柜内IT面积统一采用0.45*0.75m2,不同功率仍需换算。无论实际占用面积比标准面积大还是小,其最终都会反应在正向的SUE’中。
更细的颗粒度会得出更不利但是更真实的SUE。这与PUE的逻辑也保持了一致,放在同一颗粒度级别,又能体现其技术优势。

柜内空间产出率:A14/A13=SUE/SUE’;

设计与SUE
1)SUE的设计目标将根据以下因素综合确定:
① 机柜设计数/白空间面积
要求越高,则要求对空间的利用率越高。也即更低的SUE设计值。
② 团队掌握现有方案经验值
主要涉及团队挑战程度,对于不同阵营的运营团队可承受的挑战不同,过高的挑战会
压垮团队而无法实现,过低的挑战会浪费人力资源的投入,无法充分实现团队的价值。
③ 项目所在城市建筑、土地、市政协调等非机电价格
④ 由于数据中心行业持续发展,机电及it系统自身的价格往往全国较为均匀。而传统的土地、结构与土建、市政协调等往往与区域及当地发展热度有关。一般以不含IT的项目总造价除以机电造价-1作为权重判断,非机电权重越高,则应设计实现更低的SUE目标。
⑤ 项目约束:限高、容积率上限
高层建筑由于会加大建筑成本,往往其临界高度成为隐形限高。较低的容积率,也会导致较低的SUE设计目标值。较低的容积率往往也会存在较大的空置占地面积可供高效利用。
2)SUE设计与计算:
① 逆向SUE设计:从现有方案和架构出发,计算SUE值,核对与目标差异,进行相应调整设计。
② 正向SUE设计:从设计目标出发,根据实际设计经验,划分各层级局部SUE,再选择合适的匹配的架构方案,并根据目标需求匹配相应的平面布局和柱网设计,最后再将相应的设计参数需求分解到系统或者设备性能及规格需求设计中。

3) 设计经济性KPI-PUE:
PUE的设计目标,权衡的是运营费用OPEX的有效利用率,而SUE的设计目标瞄准的建设投资CAPEX。两者需要在更高角度TCO上进行一定的有机融合。
(3-1). PUE的颗粒度
数据中心的PUE的定义非常简单:PUE=数据中心总用电/IT(电子信息)设备用电;
但随着数据中心的蓬勃发展,其应用却随着场景与阶段而在颗粒度上呈现多样性变化。
1)空间维度:
① 总用电是否含10KV变压器,或更大颗粒度如110KV或者220KV变压器。
② IT设备用电是否含ups损耗,或者更大颗粒度如列头柜损耗或者机柜甚至服务器级电源传输损耗。
A总用电及IT用电,均取用电量
B总用电及IT用电,均取用电功率
2)时间维度:
① 年度平均
② 月度平均
③ 日度平均
④ 时度平均
⑤ 分度平均
⑥ 秒度平均(瞬时值)
3)负载率维度:
① 同一负载率
② 同一负载率区间(相差低于满载值10%)
③ 同处高效负载率区间(核心能效设备可高效运行的负载率区间)
加权平均负载率
A负载率取IT的
B负载率取散热或者其他核心设备的
4)数据中心维度:
(1). 规模:超大、大、中、小、微

(2). 冷却系统:几级载冷几级载热
(3). 冷却系统:几级载冷几级载热
(4). 供电系统:
市电直供、一路市电主用一路直流、一路市电一路直流主用、一路市电一路直流双主用、双直流、双交流ups、一路交流ups主/备用。
(5). 运营团队:
第一阵营(建立企业标准,引领、超越行业及国家标准)、第二阵营(掌握行业及国家标准)、第三阵营(努力尝试遵守行业及国家标准)

设计与PUE
1)PUE的设计目标将根据以下因数综合确定:
(1). 初期最大可使用资金额
不一定全是自有或现有资金,主要涉及降PUE减少TCO的技术增量投资资金可行性。
(2). 团队掌握现有方案经验值
主要涉及团队挑战程度,对于不同阵营的运营团队可承受的挑战不同,过高的挑战会压垮团队而无法实现,过低的挑战会浪费人力资源的投入,无法充分实现团队的价值。

(3). 项目所在城市电力价格
较低的电力价格将大幅延长降PUE减少TCO的技术增量投资回收期,从而从经济角度,允许了较低的PUE设计目标(较高的PUE设计值)。
(4). 项目所在城市气候条件
往往较优秀的气候条件(更适合冷却)与较低的电力价格会较大程度上相关,会使得从数值来看,具备较优秀的气候条件的城市项目,其PUE目标并没有显着高于普通城市。
从监管层次来看,这也某种程度上缩小了全国的能效管控目标差异。
(5). 项目团队销售进度计划可预期值
要综合同类同地区IT负载特性及销售进度计划可预期值,权衡预测10-20年内每1-3年项目IT平均负载率。
(6). TCO中不确定性在初始投资及后期运营支出的加权预期
毕竟TCO中一次投资的支出近在咫尺,而TCO中运营支出由于较长的时间跨度,具备更大的不确定性,其时间具有更大的贴现值。科学计算时,除考虑增量投资的资金年化收益外,还应考虑一定的运营节约的风险贴现造成的节约折扣。
2)PUE设计与计算:
① 逆向PUE设计:从现有方案和架构出发,计算PUE值,核对与目标差异,进行相应调整设计。
② 正向PUE设计:从设计目标出发,根据实际设计经验,划分各系统局部PUE或者CLF、PLF等,再选择合适的匹配的架构方案,并根据负载特性匹配相应的容量和数量设计,最后再将局部目标值分解到系统或者设备性能需求设计中。
3)设计经济性KPI-TCO:TCO除了以PUE为核心指标的单位需求运行费用之外,另一个核心就是以工程总造价和SUE作为特征衡量的单位需求初次投资。当然更专业和精细化的运营方,已经在此基础之上开始研究销售及运维的人力成本、以及设备的维护和更替成本。而这些其实和SLA也都紧密交缠在一起。

(二). 设计如何优化改进?
设计的KPI仅能给出设计目标或者评价设计是否达标,而无法给出到达途径。无论是身为设计主体的一员,还是作为承担设计管理的数据中心运营方或者顾问,为了达成目标,作为裁判给出裁决后就应该立即放弃裁判的身份和心态,而向一个优秀教练进发。
① 设计合理的KPI,以实现对设计的量化评价,并给出大的优化方向;
② 对细节的充分关注及提高多种利弊纠缠权衡判断时的量化率,以落实架构、方案及设计的调整和优化。

1)设计优化-SLA
① 园区市政水接入/网络带宽的接入点/外电高等级变电站,仅来自园区紧邻的一条道路/一个方向,这显然可能会成为安全可靠性的一个隐患。
② 园区内不同楼栋数据中心之间,电力实现了互联互通,但是冷量供应上却又严格的割裂其联系和孤立无助,显然完全受控的互联互通,既能实现独立运行,也能实现在网运行,给园区前期运行提供极大的灵活性,给后期稳定运行提供更优秀的经济性和可靠性。
③ 园区内可进人的室外管线廊道,进出口无视频监控。对于非自用型数据中心服务商,往往需要留存证据。
④ 忽视潜在客户接受度及团队运维能力积累,而试图大规模采用飞轮ups、高压直流、冷水背板、高水温高送风温度等客户敏感型技术。
⑤可靠性设计量化细节缺失,且未见可落地采购与实施的量化约束指标。

2)设计优化-TCO
① 有PUE的设计值,但是其目标的设定,架构、方案、措施的对比与评选,均往往未与TCO紧密相关,也未充分因地制宜,量身设计。
②经常看见有项目造价的预算,但是其目标的设定,造价的实现往往未与TCO紧密相关,也未充分因地制宜,量身设计。
(三). 某典型初步设计优化前细节审核优化意见
① 集装箱油机排风百叶面积过小,由于上下两层部署,同一层间隔2m并列超过20台,侧面排风受限,且易形成部分气流短路,建议封闭侧面排风口且后部排风口面积适当扩大,如集装箱油机前后均受限(比如位于两排建筑之间),则需要依据距离与气流效果,通过控制进排风口面积设计、风机选型,设计合理的进排风风速。
② 建议在每栋主机房楼东西侧电力互联互通的基础上,实现同一栋楼东西侧及相邻两栋楼冷源系统的可随时自主中断与分割的互联互通,以提升系统的安全性、运营的经济性与灵活性,另一方面近零成本扩大应急救援和事故状态下提前紧急恢复生产的能力。
③ 建议增设网络机房,每个独立单元均设置两个以上运营商接入间,以便提升IDC型企业对于园区网络与通信线缆的管理效率,甚至是创造新的利润增长点。
④ 未见SUE设计KPI,初步估算面积有效利用率较低,主要由于以下几个因数:
(1)高架地板冷通道封闭的典型架构,引致了模块机房与走廊的高差,机房内存在阶梯,导致面积无法有效利用。
(2)采用了模块机房楼层平面主管道与动力设备主管道分别式设计,并且采用了建筑通长的大面积狭长式专用管道间。
(3)采用气体灭火,及小模块设计,单模块不到160柜,面积不到400m2。
(4)电池室、ups室等轻载房间,空调室设置在长边方向,不利于空间节约。
(5)柱网距离及柱网与建筑平面的划分匹配性,并没有充分利用建筑面积。
(6)同层防火分区的面积并没有达到最优,单位走廊等公共服务区域面积并没有得到充分利用。
⑤ 鉴于小母线工艺已国产化,且日趋成熟,建议部分楼层或者楼栋,尝试采用末端小母线方案,争取将更多面积用于产出,以便提供更多创造营收和利润的机会。
⑥ 未见PUE设计KPI,初步估算PUE偏高,应从以下几个方面优化:
(1)从冷量与IT机柜的电量之比1.3来初步估算,其PUE将存在较大的优化空间。冷负荷精确计算,实现按需制冷,减少冷量浪费,提高制冷系统负载率,以提高能效。
(2)根据项目特点,依据全生命周期内气候因数、IT负载特点,根据项目整体TCO最优原则设计科学经济的传热温差,设计选择适宜容量的冷塔、板换、冷机、末端空调。
(3)根据TCO优先原则设计,依据全生命周期内气候因数、IT负载特点,设计选择部分负荷性能更优秀的电力输送及冷量制造与输送相关的核心节点设备。
(4)根据TCO优先原则设计,权衡设计能更充分利用自然冷源的系统架构的必要性,包括但不限于更大容量的板换或者更大容量的低温蓄冷罐,以实现无缝切换,利用以往因冷机无法工作(低温下0至10%-20%负载下),而无法利用的自然冷源(约占所需冷源的80-99%)
(5)设计科学合理的系统自控逻辑,使系统在安全前提下总是依据能效优先原则运行。
⑦ 空调专业
(1)冗余备份的旁通水阀组应避免与主用旁通水阀组就近设置,以提升系统安全性。
(2)冷冻、冷却水泵、冷机、板换、冷塔应完全解耦设计,以最大程度提升设计灵活性,便于后期提升运营便利性和经济性。
(3)冷冻水加药装置建议各水系统减少一套,冷冻水正常运行后加药需求低,其中断或者故障数月对系统运行影响轻微。
(4)站房优先采用环网设计,取消原双供双回管路与冷源节点的每个节点的四个电动蝶阀(整体项目可减少160只DN400电动阀,减TCO约500万)。
(5)通过增设冷却塔平衡管并优化管路设计,酌情取消冷却塔回水电动阀(整体项目可减少120只DN300电动阀,减TCO约300万),如果团队能力可胜任,甚至可以进一步取消冷却塔供水电动阀(整体项目可减少120只DN300电动阀,减TCO约300万)。
(6)由于该项目蝶阀单价在DN500以上产生突变,急剧增加,水平及垂直立管部分DN600,均优化为一路DN400,一路DN500(整体项目可将3000只DN600蝶阀改为3000只DN400+3000只DN500,减TCO超过8000万)。
(7)优化蓄冷罐控制逻辑,实现与末端并联充冷,越过冷源独立释冷,最大程度节约水泵运输能耗。
(8)闭式蓄冷罐容积>200m3,不便工厂制作与运输,建议数量加1,单位容量调小。
(9) 如非必要,建议取消小容量蒸发冷螺杆冷水机组,低负荷下采用蓄冷罐充放冷的方式,高效解决低负荷运行的问题。如果有客户有冷源2N需求,建议设计预留部分楼层热管式回风墙+普通水冷螺杆机的空间方式解决,利于资金调度及应对不确定风险。
(10)冷冻水管建议将同一系统的供回水主立管分布在系统两侧,形成水平同程设计,与原设计相比,更有利于水力平衡,且未显着增加投资。仅在冷站管道连接上有所调整。(例如将CR1的位置与CR2的位置对换即可)
(11) 建议电力及电池室空调取消水平双管路设计,直接采用同IDC机房水平管设计原则即可,节约大量管路系统投资。
(12)IDC所涉地漏及连接管道均应放大设计,目前设计不能满足事故漏水短时排空的需要。
(13)风口均建议严格避免在电池、配电柜等正上方,且风口应有相应的防结露措施,以减少意外结露对运行设备的安全隐患。
(14)Ups附近的风口建议注意正对其进风方向,以减少热点隐患。
(15)服务器机房空调建议尽力对准热通道摆放,以提高气流组织效率。
(16)与主机同品牌冷凝器胶球清理装置,存在指定厂家倾向,建议避免。
⑨电气专业
(1)建议统一选用2500KVA的变压器,以便简化维护同时预留部分容量供后期调整和电力密度局部调升。如果实操经验丰富,政府关系良好,可以选择超载能力较高的立体卷铁芯类2000KVA的变压器当成2500设计使用,以便节约25%的容量费用。(需要协调其上端高压设定,保障变压器能完全作为2500KVA使用)
(2)油机及各高低压母联切换中的初始延时,建议调整,以避免延时相同相互冲突,或者延时长的却处在逻辑优先系列。
(3)由于数据中心低负载时,电源质量一般较高,高频UPS输入功率因数一直超出电力局惩罚标准,建议变压器仅动力变压器按需配置电容补偿,IT变压器视电力验收规定配置最低容量电容补偿即可,大量节约建设成本。
(4)建议UPS设计优先考虑大并机模式,例如标准模块机房采用4台600kva一组进行并机,便于提升系统设计的灵活性,便于未来局部机房电力密度的调整和腾挪,以免造成ups资源一边未充分使用造成浪费,另一边又临近超载急需扩容影响运行安全。
(5)由于UPS主旁路同源设置,零线来源相同,为了节约成本,建议取消UPS配电中维护旁路的4p开关,仅设计普通3p开关即可。
(6)由于UPS制造工艺比较成熟,建议取消静态旁路外部线缆及开关,要求ups厂家直接内部铜排短接。既提高可靠性,又能节约大量成本及工程时间。
(7)由于UPS与变压器同处一室,建议取消进入ups系统输入配电柜的主开关,以减少故障节点,并节约成本。
(8)建议大于800A的开关均设计框架开关,便于统一使用与维护。
(9)建议所有需要UPS供电的非IT非客户使用的设备均接入动力UPS,避免工程改造或者施工、日常运行与维护可能造成的局部掉电,影响客户感知和客户运行。例如制冷控制系统、自用弱电系统等,其中除纯动力设备外其余涉及控制的传感器及控制系统,均应优先设计采用2路UPS供电保障。
(10)电池指定的恒定恒功率放电功率,存在指定品牌倾向,建议避免。
⑩ 结构专业
(1)鉴于结构定型后30-80年不再变化,且承重需求的设计满足成本远低于后期改造,建议模块机房承重需求适度超前,尝试突破规范上限。
(2)鉴于电池承重需求一般高于平均值,考虑超前性,建议适度扩大相邻或者增设部分区域满足电池承重需求,以便后期灵活调整。

(四). 其他问题拓展:
1)冷却塔进出无电动阀的可行性,末端空调无电动阀的服务器进风温度波动特性,电动阀的目的是为了自动精确控制,在数据中心无论是IDC还是EDC的典型场景中,尤其是随着国标向更节能的方向靠拢,是否大部分场景下,已经不需要电动阀了?无电动阀,既能节约系统初投资,也能降低运行阻力,节约运行费用,双向降低TCO,唯一的缺憾就是控制精度可能会有所缺失。什么场景中,需要频繁的切换或者调节电动阀呢?
2)建设都已经出现了模块化、预制化的趋势,设计有没有可能呈现出产品化的趋势呢?说不定未来随着软件定义的深入,建造和运营整个数据中心就像买一台手机来使用一样简单呢?

(五). 设计优化策略:
1)SLA常见设计优化策略:
① 通过可靠性计算明确短板所在;
② 通过经济性计算明确刀刃所在;
③ 权衡提高SLA的成本与收益;
④ 权衡降低SLA的代价与风险。
2)SLA设计与计算关键点:
① SLA设计时应注意不要忽略人力、物资库存、财务等硬件之外的软件设计。
3)SUE常见设计优化策略:
① 提高单机柜功率密度;
② 扩大单模块的规模,将有利于减少单机柜的共享走道、维护空间等共享分摊部分;
③提高系统集成度,提高预制化程度,都将有利于降低SUE;
④将可集成的冷源、主备电源等外置在室外集装箱或者相关不计入建筑面积的室外平台或者屋顶等;
④ 优化过于宽松的走道、维护空间、柜内空间等。
4)SUE的分析
① SUE的分析在设计阶段,主要是关注其跨数据中心的参考价值,及对各平面和功能布局与设计的量化评价价值,以便提出优化方案与确认优化效果;
② 在运行阶段对SUE的分析,主要是对分期建设实施界面划分的合理性进行评价,对设施分期启用与上电的范围进行相应的评价与优化;
③ 应积极审查相关新产品、新技术、新策略、新思路在项目中是否具备引入和应用价值,并进行相关的技术积累、尝试与应用;
④ 将复杂的性能与指标量化,便于软件定义与系统智能化及智慧化升级。
5)PUE常见设计优化策略:
① 选择更高效的核心能效设备,比如突破三家约束去选择独二甚至独一系列,乃至唯一专利产品;比如选择更大换热面积的换热器,降低传热温差,提高制冷温度,延长自然冷却时间,提高制冷能效。
增大冷凝器蒸发器面积可以在冷机供水温度不变的情况下,缩小制冷剂蒸发冷凝温度差,任何一个前级换热器的面积增大都可以在需求不变的情况下提升温度,从而既延长自然冷却时间又提升制冷能效。

② 选择更高负载率且更高效的架构,避免不必要的2N,满足实际节点及路由的冗余、容错需求即可。(比如N+X架构的变压器或者ups);
③ 选择更高效的方案,比如将一路交流ups换成市电直供,或者在高效的前提下替换为直流ups,或者引入蒸发冷却、液冷、热管自然冷等。
6)PUE设计与计算:
① 在方案基础上,将散热端改为风冷,大比例增大换热面积,通过风力动力设备利用高空风力催动风机,启用飞轮ups+市电直供,叠加光导照明。
在PUE的IT部分负载率维度计算时应注意,照明、ups、变压器等用电尤其是空载损耗部分并不一定会跟随负载率同比例下降。在大型系统中需要注意的是,多设备系统尤其是多设备冷却系统,应根据综合能效性能进行运行数量和频率的调节,以尽可能延长高效运行时间。
风力或者水力发电设备无法有效降低严格意义上的PUE,但如果是动力设备,直接带动相关风机、泵或压缩机等,则即使在严格意义的PUE调优中,也是个合法的捷径。
② 鉴于当地湿球温度较高,干球温度不高的特点,采用传统典型冷却方案,显然较难以达标。考虑气候及客户特点,可有以下几个冷却方案进行比选或者分配份额:
A: 通过大显热转轮交换室外空气冷量,冷却机房空气,室外>20℃,启用机械制冷。
B: 冷板式、喷淋式、浸没式液冷+蒸发冷凝式散热器(气温<25℃,干冷,优先干冷还是优先蒸发看水价与电价比例)
C: 100%水冷背板+20%房间级制冷(湿球<18℃,自然冷却,背板出风25℃)
根据气候条件及负载率,计算各泵、塔、风机、冷机开启数量及频率、负载率、CLF因子,并最终计算得到总体CLF。
通风系统及冷塔电加热,冬季加湿,ups、变压器室、电池室空调,环境结构引入空调负荷等在有较高精度时不可忽略。
7)采购与PUE
1)采购设计单位时,应提出PUE设计目标或者提出设计需求,并明确在设计招标需求及设计合同中,以便统一考核,确保PUE的需求组最终能得到满足;
在招标需求及设计合同中如仅提出让人满意或者优秀的设计,在方案设计、扩初设计、施工图设计均应将具体值作为设计KPI之一,并由数据部门或者设计管理部门时刻关注其变化、原因及合理性和合规性(企业标准规范及法定/国家/监管标准规范)。
2)采购建设总包、分包单位时,应明确竣工验收,调试交付或者第三方测试验收时其按照设计要求的IT负载率下的PUE值的测试方法和结果,并将其作为核心验收指标之一,以确保PUE的目标最终能落到实地。
3)采购建设主设备材料或者管理主设备材料采购时,应明确其性能的现场或者出厂测试方法及测试值,包括维持各IT负载率下PUE设计目标,所需要的核心能效设备/系统部分负荷下的性能值。
8)高效运营与PUE
1)KPI与PUE

PUE,尤其是现有PUE仅是整体运营能效的一部分,在部分IT资源未做優化,无法实现自动关闭低负载或者空载IT资源的系统里,在整体运营能效的优化中甚至占不到一半;
② 能效也仅仅是数据中心整体运营KPI的一类指标而已,对于二三阵营的运营方或者新跨界的运营方,这甚至不属于核心指标。

2)PUE的记录
① 通过自动化软件自动实时计算,并按照不高于15min间隔存储其值,及计算其值的溯源到表计测量值及相关参数(所有维度参数)的值。审核无异常后,与往年的历史数据一并仅需留存到每日/每周/每月的数值即可。
② 具备局部PUE以及核心设备PLF、CLF同间隔展示及存储功能。
3)PUE的分析
① 每季度/每月定期分析PUE随气候变化、负载变化是否正常,并寻找优化方向,进行相关调优测试和调优;
② 监查核心设备PLF、CLF,出现显着非预期变化,应寻找优化方向,并进行相关调优测试和调优;(增加预防、预测性维护、加强原维护频率或者提出零部件/设备/系统更新计划)
③ 审查相关新产品、新技术、新策略、新思路在项目中是否具备引入和应用价值,并进行相关的技术积累、尝试与应用。

大型、超大型数据中心园区设计如何审查与优化相关推荐

  1. 工信部将对大型、超大型数据中心全面节能监察,核算PUE实测值

    工信部办公厅发布关于开展2022年工业节能监察工作的通知,彻落实<中华人民共和国节约能源法>和<工业节能管理办法>,持续推进工业节能提效和绿色低碳发展. --摘要 近日,工信部 ...

  2. 大型银行数据中心用户安全管理

    大型银行数据中心IT治理课题组 随着信息技术日新月异,银行业务高度信息化并稳步迈入大数据时代.数据中心作为银行信息化.大数据的核心基础,其IT系统庞杂,多则上千,涉及用户过万.面对如此规模的系统,如何 ...

  3. 超大型数据中心阻碍5G的正常发挥?

    此前,国际知名调研机构将5G技术定位为"将移动通信技术推向通用技术(GPT)专属领域的催化剂." 实际上,通用技术如今包括印刷机.蒸汽机.汽车.互联网等领域,这些涵盖了应用广泛的革 ...

  4. 工信部:全国规划在建大型以上数据中心平均设计PUE降到1.3以下​

    积极落实"双碳"战略目标和工作任务,联合发展改革委.中央网信办等部门出台政策文件,有序推动以数据中心.5G为代表的新型基础设施绿色高质量发展. --摘要 近日,在工信部" ...

  5. 钟景华:相关规范或明年发布,大型和超大型数据中心PUE小于1.3/WUE小于1.6

    2021年工信部统计数据,数据中心机架总规模520万标准机架,平均上架率55%:IT负载=5250*2.5*0.55=7150MW,数据中心总用电量达到940亿度. --摘要 钟景华表示,2021年工 ...

  6. 超大型数据中心正在改变精密空调市场

    根据BSRIA最新公布的报告显示,超大型数据中心正改变着精密空调市场的发展,未来5~10年间,随着数据中心更多采用自然冷却.水冷和冷水的综合系统,传统计算机房间空调设备(CRAC)的使用预计将大幅下降 ...

  7. 图解大型互联网数据中心典型模型

    数据中心本质上是数学和逻辑的组合,分析模块化数据中心的颗粒度可以归纳演绎出其典型模型,本文介绍一些大型互联网数据中心的典型案例,正是为了做此方面的分析. 大型互联网公司数据中心建筑布局 图一 谷歌数据 ...

  8. 数据中心分布情况和业务占比分析

    我国数据中心的市场规模高速增长.受"互联网+".大数据战略.数字经济等国家政策的指引,以及云计算.移动互联网.物联网.大数据.人工智能等快速发展的驱动,我国数据中心的业务收入呈现连 ...

  9. 这个省到2025年,PUE>1.3存量大型数据中心将全部腾退关停!

    12月16日,河北省发改委.工业和信息化厅.市场监督管理局.通信管理局.住房和城乡建设厅联合印发<关于破解瓶颈制约助推数字经济健康发展的若干政策>.文件明确:到2025年,PUE1.3以上 ...

最新文章

  1. docker-2-简单使用docker-ce
  2. python在线编译-python在线编译器的简单原理及简单实现代码
  3. Mac 下anaconda安装mysqldb的方法
  4. 2017/5 JavaScript基础9 --- 闭包、作用域
  5. 选数游戏(ybtoj-二叉堆)
  6. 离散哈特莱变换(DHT)及快速哈特莱变换(FHT)学习
  7. 控制`Actor`朝向,运动 Learn Unreal Engine (with C++)
  8. mysql一共有多少引擎_MySQL存储引擎你们知道多少?
  9. 让机器也拥有品味!时尚图像补全网络FiNet| ICCV 2019 Oral
  10. django mysql settings
  11. opencv 识别机车
  12. CCF2018-3-2 碰撞的小球
  13. 支付宝相关信息会被泄露出去吗?
  14. main方法 如何去掉http debug日志_Spring Boot 常见错误及解决方法
  15. Hbase Scan类 ResultScanner类
  16. 互联网晚报 | 12月7日 星期二 | 阿里新设两大数字商业板块;B站宣布迈入8K超高清时代;中国物流集团正式成立...
  17. git commit --amend 用法
  18. 阿里云OSS删除文件详细步骤
  19. 2020第二届长安杯电子数据竞赛试题(二次修改版),本人亲解,尽量做到细致仔细,镜像百度网盘奉上,建议大家联系一下,弘连题目还是很好的(强烈推荐)
  20. 一组Android机器人素材图片

热门文章

  1. Java动态追踪技术
  2. 特斯拉供应商同意接手一家通用汽车在韩国的电动汽车制造厂
  3. 最喜欢的科技资讯类英文网站
  4. Oracle11g数据库的下载与安装(Windows 10)
  5. 希腊字母发音对照表及其latex命令
  6. Sublime Text介绍
  7. 大数据技术技能分析大赛——第一章 python数据分析概述
  8. 电脑中的耳机插进去没有反应
  9. OFDM峰均比抑制matlab,一种降低OFDM峰均比的解决方法
  10. 旋转目标检测复现-yolov5-obb