提高数据中心散热效率& PUE with 计算流体动力学(CFD)

从支持《财富》 500强企业的集中式数据中心,到使我们的中小企业保持运转的本地服务器机房,再到由亚马逊,Facebook,谷歌和其他公司托管的云计算农场,数据中心是美国经济的新骨干。存储数据,电子商务和互联网流量的爆炸式增长使数据中心成为美国电力增长最快的用户之一。 作为数字时代的工厂,数据中心需要大量的能源,同时也为经济增长与环境影响脱钩提供了重大机遇。 

2015年,美国数据中心的耗电量估计为710亿千瓦时,约占总耗电量的2%。 这种使用量相当于34个大型(500兆瓦)燃煤发电厂的年产量,足以为纽约市的所有家庭供电两次。这种消耗每年使美国企业损失近90亿美元,并导致近1亿公吨的碳污染排放。 不用说,数据中心为节省成本和环境效益提供了巨大的机会。

改善气流管理和冷却效率的策略

数据中心能源使用中最大的效率低下是过冷。 最近的一项研究得出结论,由于不良的气流管理,平均只有60%的抽入数据中心的冷空气可以有效地用于冷却设备。 因此,大多数冷却设备的供气温度都比所需的温度低8°C,以确保关键设备的冷却达到ASHRAE TC 9.9的建议。这种做法会导致效率显着下降。    

以下列出了改善数据中心气流的各种策略,并按复杂度递增的顺序列出了以下策略:

  • 盲板 是有效控制服务器机架中气流的基础。在服务器机架的前面,未使用的机架空间(开放区域)被挡板覆盖,以便空气通过设备而不是设备周围。同样,机架之间以及机架与相邻分区之间的空间也应封闭或消除。此方法减少了热空气从服务器排气到机架入口侧的再循环。  
  • 冷/热通道布置 对服务器机架的行进行定向,以使相邻服务器机架的正面彼此面对,相反,相邻服务器机架的背面也将彼此面对。这种取向产生交替的“热通道/冷通道”行,从而在冷却设备之前将冷空气与热空气的混合减至最少。 现在,热/冷通道设计已成为标准配置,并且在80%的现有设施中使用。
  • 通风砖(扩散器) 和/或磨碎的面板在许多数据中心中的位置或大小不正确。由于气流行为的复杂性,正确的配置并不容易显而易见,因此需要进行流体动力学研究以进行评估。
  • 冷通道或热通道遏制 通过封闭一个或另一个过道来增加热过道/冷过道的布置。然后,封闭的通道变成了一个自己的房间,用金属,塑料或有机玻璃制成的屏障密封,几乎消除了机架的冷热空气混合和冷空气旁路。

使用计算流体动力学(CFD)进行基准气流评估

最近,在Resolved Analytics中,我们被要求向客户演示通过使用现有的热通道-冷通道服务器机房布置中的这些步骤来实现的效率提升。 计算流体动力学(CFD) 造型。 我们首先说明与基线热通道-冷通道布置相关的低效率。作为参考,建模的服务器每个机架产生6 kW的热量,空气通过量为0.36 kg / s,多孔砖的孔隙率为50%。 冷藏室空调(CRAC)单元显示在最右边。

从下图中可以看到,从高架地板通风孔砖升起的冷空气流明显地集中到房间后方的服务器,并在到达天花板之前绕过大多数服务器入口,并与从热风出口排出的热空气混合。服务器。 

结果是某些服务器的入口温度高达CRAC空气温度34°C或22°C。同样,经历较高入口温度的服务器也显示出高于设计出口温度(热点),这可能会对CRAC维持ASHRAE标准的能力产生负面影响。 这些数据点与客户的操作经验非常相似。

流线图表明,热的废气是从距离CRAC最远的机架中再循环的,并与CRAC的送风混合,然后才进入更靠近CRAC的服务器进气口。 同样,由于地板上未密封的2“空间,排气被吸入每个机架的底部,而相邻机架之间留有1”的空间,排气被吸入侧面。 

增加落料和冷通道封闭

进行了其他模拟,以演示与各种修改相关的逐步改进,包括添加盲板以封闭机架之间的空间,更改单个扩散器砖的孔隙率以及更改CRAC回流的高度,这些未在此处列出。 但是,我们确实分享了冷通道密闭布置的CFD模拟结果。 下面的12C等值面图类似于前面显示的图,显示了所有服务器机架入口上冷空气的理想均匀分布。

结论

在这里,我们报道了成功应用 计算流体动力学(CFD) modeling 在演示各种数据中心设备布置修改对冷却效率的影响时。 该项目表明,数据中心运营商可以期望将CRAC温度提高2至10C,这取决于所选择的修改方式,同时还符合ASHRAE的要求。 掌握了这些信息之后,数据中心运营商便能够进行明智的成本/收益分析,以确定最适合其需求的修改。  

如果您有数据中心气流管理方面的问题,并且认为CFD可能是评估问题的有用工具,请 不要犹豫与我们联系 并感谢您的阅读。