关于数据中心业界偏向于优选采用流体的方式进行相关设备的散热的讨论的历史其实并不太长。几十年来,整个数据中心业界基本上已经形成了“数据中心没有水”的这一理念,而随后几年的理念则是“液体是唯一的选择”的理念。而在本文中,我们旨在抛砖引玉的提出关于数据中心在权衡液体冷却与空气冷却时各自需要考虑的相关因素,并想要提醒广大读者诸君引起注意的是:空气冷却和液体冷却比您所相信的其它竞争性的技术都更有效。
当数据中心的管理人员们被访问到他们最想要数据中心进行哪些方面的改进,相信我们绝大多数人在看到:排名最靠前的前两大选项分别是更高的能源效率和更好的冷却/ HVAC系统,可能并不会感到惊讶。然而,当要求同样的受访者们确定数据中心最有前途的新技术时,我们可能会惊讶的看到:液体冷却与DCIM一起成为了他们的首选。有趣的是,今天只有极少数的数据中心实现了对于其空气冷却方式的全部能力的充分利用,由此使得空气冷却所带来的效果可能显然变得不那么明显,而液体冷却的拥护者们则可以宣称该方法带来了数据中心机架密度十倍的增加,甚至能够使得冷却操作的成本的降低了75-90%.
虽然与一般的空气冷却方案部署相比,特别是与大多数传统的数据中心空间空气冷却方案相比,液体冷却方案的这些优点确实存在;但是当其与更充分地利用了数据中心业界最佳实践方案的数据中心空气冷却方案相比,这些效率和密度方面的差距就显得很小了。然而,液体冷却当然也存在其它方面的益处,极其在机架密度和效率方面所带来的能力,也就使得液体冷却对于某些应用程序而言特别有吸引力。
液体冷却的优势
自从大约10-12年前开始,具备支持极高密度的数据中心机架能力已然成为液体冷却方案的一大差异化亮点,而这是在8kW被固定为数据中心空气冷却方案所普遍接受的最大机架阈值,并作为科学的气流管理成熟之前。在那时,液体冷却方案其实甚至不是真正的液体冷却,其在今天被更精确地定义为紧密耦合的冷却——基于机架行的冷却和机架顶部的冷却解决方案。由于更完整的气流管理技术为每台机架提供了20kW的路径,甚至高达每机架接近30kW,因此液体冷却的密度优势下降了一点。而最近的消息显示,英特尔公司已经运行一出每平方英尺1100瓦的空气冷却高密度数据中心几年了,其机架密度高达43kW.这是否意味着液体冷却已经没有密度优势了呢?并不尽然。首先,英特尔需要配置特殊的服务器和机架,以允许他们将43kW的计算打包到一款60U高度的机架中,以减少的占地面积,并在一个具有足够高的天花板的旧芯片制造厂中建立数据中心,以适应大规模的配置供应并排出大量热空气。其次,直接接触的液体冷却解决方案现在可以有效地冷却60kW的机架,并且还有80-100kW的解决方案可用,基本上其可以等待实际的芯片设置堆栈到该密度。CoolIT Systems公司的产品营销副总裁Pat McGinn建议,企业客户可以将这些配置都运用到其工作中。
但是,液体冷却解决方案不应该用于高于30-40kW的高密度的位置,高于该密度直到80-100kW可以采用空气冷却的方案,这是可行的配置和部署方案。例如,如果数据中心空间对于空白空间和机械设备都是优先的,则100kW的IT可以被打包装入两台或三台机架而不是四台到十五台机架,并且供应的水可以通过连接到建筑物内冷冻水环路返回侧的热交换器冷却。这种液体冷却方案可以用企业数据中心现场的路径替代托管,而事实上,没有用于数据中心的空间或机械设施。在这些情况下,密度成为了解决方案,而不是问题。
同样,英特尔最新的生产数据中心实验涉及到内置于热通道遏制屋顶的冷却线圈。这些线圈被耦合到一个非常高效的绝热冷却机制,导致每年节省超过1亿加仑的水与塔冷却,并且使得所有商品化IT设备的密度达到1100瓦/平方英寸。
虽然这种绝热冷却系统的占地面积约占塔式和冷却设备占地面积的3倍,但这一概念确实包括了适用于较小数据中心的路径。由于英特尔在满足其服务器入口温度目标的同时,允许线圈的“冷却”水达到80?F,这个相同的330kW线圈容量可以连接到建筑冷冻水回路的返回侧,导致适度大小中等规模的数据中心的空气冷却PUE甚至能够低于英特尔在其3MW机架行上看到的1.06.
其他注意事项
当评估液体冷却与空气冷却的相对优点时,可扩展性和灵活性也是考虑因素。Clustered Systems公司的首席执行官Phil Hughes表示说,不需要定制建筑,也不需要“在迁移、添加或改变之前重新架构气流”,因为液体冷却的一些不太明显的优势仍然可能影响总体所有权成本。
另一个考虑是部署在数据中心操作空间中的IT设备的相对同质性或异质性。作为一般的经验法则,规模化经济将有利于具有更均匀的IT设备的液体冷却解决方案。特别是如果需要一个相当定制化的项目来配置IT设备时,在每个主要热源;或每个热源和单个大型冷板之间的导体上使用单独的冷板。这种差异的一个极端例子可能是具有机架级客户的一处托管数据中心;与研究实验室的数据中心,使用所有IT来运行某些型号的模拟,无论是新的芯片设计,星际天气系统,还是心血管系统。通过良好的气流管理,空气冷却通常能够更好地实现托管空间的异质性;而研究型数据中心可能是更合理的液体冷却方案的候选者。
液体、空气或混合解决方案?
最后,液体冷却和空气冷却的一个子集,应该被认为是冷却替代品的总体评估的一部分。对于空气冷却方案,部署具有非常紧密的气流管理,结合某种形式的经济补助,并允许在更宽泛的ASHRAE TC9.9规定条件下,允许在服务器入口包络范围内操作,存在糟糕的空气冷却。而真正糟糕的空气冷却没有站得住脚的理由。在液体冷却方面,有通过液体消除所有设备热量的系统,有混合动力系统能够通过液体冷却消除大部分的热量,然后需要一些空气冷却的来消除任何剩余热量。从理论上说,似乎一套完全的液体冷却解决方案要比一套液体冷却和空气冷却混合解决方案在资本开支方面更有意义,但经济分析需要成为对基本项目尽职调查的一部分。
此外,有些情况下混合解决方案可能更有意义。例如,如果现有的数据中心严重不足以满足IT需求的未来规划,企业组织无需构建一处全新的数据中心以适应业务增长,而是可以在相同的占地面积条件下,将其现有的每平方英尺100瓦特的数据中心转换为每平方英尺500瓦特,而无需增加任何机械设施。
另一种可能具有成本效益的混合解决方案可能是完全集成的产品,例如由集成后门热交换器的返回水提供的冷板。如果该机架后门热交换器需要其自己的机械设备,则其可能会有资本投资与一套完全的液体冷却解决方案。然而,如果后门热交换器本身在建筑物回水循环中操作,则该混合方法可能更有意义。值得认真考虑的最后一个因素是获得预先设计的IT设备配置或您企业自己的工程订单(engineered-to-order,ETO)IT合作的舒适区。
对PUE值的影响
对于一款特定应用程序的情况,最后需要注意评估空气冷却与液体冷却的适宜性。如上所述,所有真正的经济效益需要从一个或多个程度进行评估,探索ASHRAE允许的温度元素或真实的服务器OEM操作温度规格的更宽的阈值。在这些条件下,PUE值不会是液体冷却和空气冷却之间的差异的最终确定因素。当服务器入口空气超过80?F时,在大多数情况下,服务器风扇将升高并且使得消耗的能量非线性增加。 能量增加进入PUE计算方程的除数,并且将导致更高的能量消耗和更低的PUE值;而液体冷却方案将消除或大大降低风扇能量元件,从而降低PUE除数,并产生较高的PUE值,而总能量消耗则较低。这个警告并不一定意味着一种技术优于另一种技术;其只是需要考虑所有其他变量的另一个因素。
结论
总之,一切方案都要比糟糕的空气冷却方案或没有气流管理的空气冷却方案要好。此时,液体冷却对于50kW和更高的机架密度是必要的。然而,液体冷却不应限于高密度应用程序,因为其可以帮助克服对空气冷却的各种现场约束。对空气冷却即将消亡的著名谣言的断定还有点为时过早,英特尔公司43kW机架和和空气侧节能器的成功部署便是一个有力的证明。当空气冷却的数据中心可以实现PUE值小于1.1时,直接的经济效益不会永远成为液体冷却和空气冷却之间的显著差异。不过,对数据中心、应用程序和IT设备变化的计划进行充分评估的任务应包括其他差异化,包括对数据中心建筑的限制和数据中心使用寿命阶段的揭示,以便选择优选路径。
文章来源:机房专用半岛(中国)www.cg-afg.com