May 21, 2025 Sara Jensen
翻译:静液压传动
软管、接头和其他流体动力组件现在正在用于许多数据中心使用的冷却系统。
您将学到什么:
- 如何在数据中心冷却中使用液路和气路元件。
- 数据中心中使用的流体动力组件的关键设计注意事项。
- 流体动力行业数据中心的未来市场机会。
为了满足对复杂计算和数据处理不断增长的需求,数据中心的建设正在增加,部分原因是人工智能(AI)的采用越来越多。这些设施需要大量的冷却才能保持高效运行。
流体动力组件在数据中心现在使用的许多热管理系统中发挥着越来越重要的作用。
传统上使用风冷方法,但随着 AI 和其他数据密集型应用程序对更高处理能力的需求增加,消耗了更多的能源,从而导致更多的热量产生。
正因为如此,许多数据中心现在都在使用冷却,这提供了一种更有效和高效的方式来传递产生的热量,盖茨全球营销、产品线管理和定价副总裁 Mike Haen 说。
泵、软管和其他流体动力技术被用于帮助通过这些冷却系统,为液压和气体行业的许多公司提供了一个机会领域。
流体输送使数据中心保持凉爽运行
数据中心中使用的冷却系统本质上是一种流体输送系统,它泵送水乙二醇溶液来冷却这些设施中使用的芯片和其他组件。
因此,流体动力组件通常用作这些系统的一部分来输送冷却液;这些组件包括:
- 软管
- 附件
- 热塑性管材
- 泵
- 歧管
- 快速接头
- 连接
- 过滤器。
派克汉尼汾
派克汉尼汾软管可用于提供直接到芯片的冷却,有助于确保组件不会过热,从而继续按预期运行。
Parker Hannifin流体连接器集团业务开发经理 Joe Chopek 表示,为数据中心选择的冷却方法基于设施中使用的芯片容量。他说,超过 150kW 的空气无法移动足够的空气来提供足够的冷却。随着芯片现在在 200 kW 及以上的范围内运行,“您必须采用直接的芯片冷却解决方案。水乙二醇可以充分带走热量,“他说。
冷却能够从芯片中吸走热量,使它们保持预期运行,同时还有助于降低能耗。
Danfoss Power Solutions流体输送事业部特种业务部副总裁 Peter Bleday 表示,电力约占数据中心运营相关成本的 80%。这些电力用于为设施中的计算技术和冷却系统提供动力。
“冷却的效率要高得多,”他说。“使用冷却,您的效率提高了 20% 或 30%……这显然降低了数据中心的总使用成本。
Bleday说,利用更高效的冷却技术可以减少用电量,并使通过数据中心运行更高的电力负载。
数据中心应用中流体动力组件的设计注意事项
据 Chopek 称,冷却系统的闭环、低压设计有助于使其成为相对简单的解决方案。此外,它们在气候控制设施中的使用消除了一些环境因素,如果系统位于暴露在恶劣的夏季或冬季天气条件下的建筑设备中,则可能必须考虑这些因素。
派克汉尼汾解决方案
Parker Hannifin进行了多项测试,以确保其用于数据中心的快速插拔接头和其他组件提供无泄漏设计,以防止损坏敏感电子设备。
“但另一方面,失败的代价非常高,”他说。“任何类型的流体泄漏都可能代价高昂,因此对无泄漏 [解决方案] 有非常高的标准。”他说,将用于数据中心应用的产品要经过大量测试,以确保它们能够提供无泄漏运行。
Bleday还指出了制造无泄漏组件的重要性。“对于我们所有的部件,我们都会尝试最大限度地减少泄漏。但对于某些数据中心应用程序来说,这一点更为关键,因为即使是少量的泄漏也会造成巨大的损害。
在文章“如何减少昂贵的流体系统泄漏和排放”中了解有关防止液压系统泄漏的更多信息。
此外,需要确保流体纯度,以防止芯片过热。Chopek 解释说,在更传统的液冷应用中,一旦冷却液在高压和高温下通过系统,就不太担心微生物积聚。但是,由于数据中心冷却系统使用水基解决方案和较低的压力,因此人们更加担心微生物生长的可能性,甚至软管随着时间的推移而破裂以及颗粒进入的可能性。
“因为芯片级别的流速非常小,任何类型的堵塞 [都可能导致] 芯片很快过热,”他说。“所以,它们对任何类型的污染物都非常敏感,因为如果你不能冷却芯片,它们会很快过热,然后完全损失。”
确保高效的流动也是必要的。他说,要做到这一点,在快速插拔接头和接头上实现高流量和低压降非常重要。这保证了冷却系统的泵以最高效的方式运行。“这一切都是为了最大限度地减少电子设备附近的泄漏并最大限度地提高整个过程的效率,”他说。

在为数据中心开发产品时,还需要考虑空间限制。数据中心的可用安装空间通常较少,因此需要使用紧凑且易于安装的组件。具有小弯曲半径的液压软管特别有利于简化这些应用中的布线。
这是 2024 年底发布的 Gates Data Master 数据中心冷却软管设计中的众多因素之一。根据 Haen 的说法,它提供了易于布线的灵活性和紧凑性,以适应紧凑的服务器机架布局。2025 年初,该公司在其产品线中推出了另一种数据中心冷却软管 Data Master MegaFlex,该软管还为狭小的安装空间提供了灵活性,同时还提供了更高的流量。
Gates Data Master MegaFlex软管经过精心设计,可提供更大直径的更高流量,适合用于维修数据中心的冷却分配装置和机架歧管。
Gates数据中心软管的其他重要设计特点包括使用特殊复合材料来保持系统清洁度和阻燃性。
“为数据中心设计软管解决方案是一项独特的工程挑战,”Haen 说。“最终,设计需要考虑该应用中对产品的要求。
“在移动或工业环境中,可能对产品造成压力的挑战可能包括外部磨损、动态运动或剧烈的压力变化。数据中心需要的解决方案非常注重减少污染和泄漏,同时重视灵活性和紧凑性,“他说。
Haen说,Gates 借鉴了其为多个行业开发流体动力技术的经验,以帮助设计这些软管。“虽然 Data Master MegaFlex 是专门为冷却应用开发的,但其背后的基础技术反映了从液压、工业和汽车系统获得的见解,”他说。
“例如,软管的高柔性结构植根于我们在工业应用中的工作,而它与乙二醇水和冷却液的化学相容性则源于我们在汽车热管理应用方面的历史。这种专业知识的融合使我们能够设计出非常适合一系列新兴技术需求的产品。
Bleday表示,丹佛斯为数据中心提供现有产品和专门设计的组件的组合。根据行业和数据中心的哪个位置,组件的使用通常是决定因素。特定的软管、接头和其他组件是为在服务器机架内使用而开发的,但随着您从服务器进一步移动到所有冷却和其他设备所在的位置,丹佛斯现有的许多工业液压软管、配件和制冷组件都可以使用。
丹佛斯动力解决方案
丹佛斯开发了用于数据中心服务器机架内部的特定连接器和其他组件。
开放规范的市场
Chopek表示,数据中心市场是一个独特的市场,因为它的规格是开放的。他解释说,数据中心市场中的那些人“决定,与其竞争,不如让每个人都同意的开放规范,而不是竞争,而不是竞争。
一个被称为开放计算项目(OCP)的独立机构成立。来自数据中心市场工作的每一家大公司的代表都坐在该机构中,并制定数据中心中使用的规范、流体动力和其他技术需要满足的要求。
“因此,对于通用型快速插拔(UQD)接头,他们会提出规格,并说 UQD 必须具有这种流速、这种内径、这种外径和这种尺寸的占地面积,”Chopek 说。
Bleday将 OCP 等同于 ISO 或 SAE,因为它充当数据中心行业的联合标准组。“我们正在标准化组件之间的连接,以便竞争对手的快速断开插头和插座仍然可以一起连接,并且仍然可以发挥所需的功能。”
组件供应商可以提交其产品的图纸,如果他们符合 OCP 机构制定的规范,他们就可以成为成员,从而被视为满足数据中心应用需求的合格技术供应商。
Chopek说,总体而言,质量是满足的最重要规格。希望为数据中心市场提供服务的流体动力公司需要证明他们的产品是无泄漏的,并且能够满足所有温度、压力和使用寿命要求。
丹佛斯、盖茨和派克汉尼汾都是 OCP 成员,这使他们能够将他们的流体动力专业知识带到讨论中,以确保在不影响所需性能的情况下实现所提出的标准。
数据中心的未来增长潜力
Haen表示,随着 AI 和机器学习的加速采用,数据中心正面临前所未有的热管理挑战。“传统的空气冷却方法正在接近其性能极限,而冷却正迅速成为管理强热负荷的首选解决方案,”他说。
因此,流体动力元件有望在数据中心应用中继续发挥重要作用。
Bleday同意,随着数据中心行业朝着更高的计算能力发展,冷却将继续变得更加普遍。他说,丹佛斯看到了冷却市场的长期增长。“它在过去几年里一直在增长,而且看起来不会很快停止增长。”
他说,在芯片之间移动水乙二醇的能力以及这种冷却技术的效率将推动数据中心市场做出大量决策。“市面上有一些新技术,例如浸入式冷却……但即便如此,你仍然需要制冷剂,你仍然需要这些冷却能力,“Bleday 说。“我认为在这些应用中总会有流体输送和流体动力。”
上图来源于网路
随着更高水平的计算能力的需求增加,预计数据中心行业将继续增加冷却系统的使用,从而增加其中采用的各种流体动力组件。
现在为数据中心生产的许多芯片都是 200 kW,但 Chopek 表示,该行业已经在向 300 kW 迈进,并且已经制定了使用 400 kW 选项的计划。他说,当前的冷却系统将能够满足这些更高容量芯片的热管理要求,尽管这可能会带来对更高流速的需求。
不过,该行业发展迅速,“在某个时候,芯片密度会达到如此之高,以至于你不得不使用制冷,”他说。Parker 确实提供一些制冷产品,但这是一个与不同的市场,因此可能需要一些投资来确保制冷产品能够满足数据中心的需求。
他看到液冷数据中心仍然存在,就像仍然存在风冷设施一样。现有设施提供的计算能力已经被使用,因此,随着每种新的冷却技术进入市场,它都会被添加到现有的技术中。
“你不能让风冷数据中心变成液冷,你也不能让液冷数据中心制冷,所以它们有点建立在彼此的基础上,”Chopek 说。
“我可以想象,如果 3 年后,方面有足够的产能,他们可能会……关闭一些风冷 [设施],但我认为它 [冷却系统] 会在一段时间内过渡到制冷时继续存在。
未来几年数据中心的冷却技术将如何发展还有待观察。研究公司IDTechEx 目前预计冷却将持续增长 在接下来的10年里。以及一个来自Endeavor Business Media合作伙伴网站Data Center Frontier的2025年2月报告表明冷却是数据中心市场的长期趋势。
至少在短期内,冷却似乎是数据中心市场的首选技术,这将在未来几年为液压和气体流体输送技术提供持续的机会。
关于作者
萨拉·詹森 |执行编辑,Power & Motion
Sara Jensen是Power & Motion的执行编辑,她将覆盖范围扩大到现代流体动力领域,以及机电一体化和智能技术。她拥有超过 15 年的出版经验。在加入Power & Motion之前,她在一家为重型设备工程师开设的行业出版物工作了11年,其中最后3年担任编辑和品牌领导。在 B2B 行业的职业生涯中,Sara 对各种重型设备行业(包括建筑、农业、采矿和公路卡车)以及影响它们的系统和市场趋势(如流体动力和电子运动控制技术)有了广泛的了解。
#artContent h1{font-size:16px;font-weight: 400;}#artContent p img{float:none !important;}#artContent table{width:100% !important;}