随着全球信息化的高速发展,数字经济占 GDP 的比重持续攀升,据最新研究表明,我国的这一比值已经达到38.6%。人工智能大潮之下,液冷数据中心正迎来爆发。英伟达创始人黄仁勋近期就表示,液冷技术将成为AI算力的下一个趋势性领域。
传统服务器的冷却方式是通过空气进行换热,该技术方案很好地将 IT 设备与冷却设备进行了解耦,从而使得制冷系统形式能够实现多样化,但由于空气比热容较小,体积流量受服务器进风口大小限制,换热能力有限。自然而然,为了提高换热效率,采用更高比热容的换热介质、更大接触换热面积、更大换热体积流量的方案就成为了提高制冷效率的必然选择。
从这三方面考虑,采用液体的换热方式显然具有更高的换热效率,从而可以实现更好的节能效果。因此,液冷技术就顺其自然的进入了数据中心领域。
液冷有浸入式、冷板式等多种技术路线。
一、冷板式液冷
冷板式液冷的技术原理是将换热器就近直接贴合发热部件放置就近散热。为了提高换热能力,需要尽可能增大换热面积,必须要尽可能将板式换热器平整地贴合在热源表面,异形的设备很难采用这种换热形式。冷板服务器方案系统原理如下图所示:
冷板服务器方案系统原理图
但只有形状比较规则的芯片才适合采用冷板换热,这也就造成了冷板方案的一大问题——服务器中其余的存储、内存、电源等占服务器的热量依然需要采用传统风冷 IT 的方案去实现。如下图所示:
风液共存的机房散热系统
由于冷板散热特点,导致应用冷板方案必须同时叠加两套制冷系统,成本和实际系统 PUE 都会有所上升。服务器内部液冷循环为单环路,无冗余,可靠性比液冷 2N CDU 冗余设计低一个等级。此外,以数据中心 12 年使用期为例,采用冷板液冷服务器内置冷板每次都需更换适配下一代 CPU 的冷板,因此每次迭代都会有 2 – 3 次的重复投资。这些都使得冷板系统更加复杂,TCO 相对较高。
液冷管道环路系统

二、浸没式液冷
基于换热的原理,换热量的大小由有效换热面积、表面流速、换热对数温差所决定,因此在其他条件相差不大的情况下,浸没式液冷接触换热面积较大,对于表面流速(速度越高泵功率越大)、换热对数温差要求(要求更大的换热器)方面都会有明显优势。浸没式液冷系统原理如下图所示:
浸没式液冷系统原理图
浸没式液冷就是将 IT 设备完全浸没在冷却液体里实现散热的技术,浸没式液冷系统结构简单,如下图图所示:
浸没式液冷服务器
浸没式液冷系统,省掉了压缩机等制冷系统核心部件,省去了原来水冷风冷系统中两次空气与水交换的过程,且系统采用液体充分接触交换的方式,因此很容易实现单机柜 100kW 的换热,并实现较低功耗(换热量大,因此需求的流速低,泵功耗低),冷却部分 PUE 可达 1.04。
三、风液共存
了解数据中心的都知道,以往数据中心功率密度低,都是采用风冷散热,现在随着AI算力发展趋势,液冷技术应用也越来越多。
那既然有风冷、液冷之分,那么,在同一个数据中心,是否可以同时使用这两种技术呢?有无冲突与矛盾?上面也提及过,服务器中其余的存储、内存、电源等占服务器的热量依然需要采用传统风冷 IT 的方案去实现。实践证明,完全可以做到“风液”共存。
风液共存即指,在同一个数据中心,服务器既可以有采用空气冷却的子机房,也可以有用液冷的子机房。为什么要采用这种结构呢?这是由于目前液冷成本还较高,为了平衡初投资和 PUE 而采用的折中方式。水冷液冷制冷 PUE 可达1.09,而采用水冷风冷的数据中心 PUE 往往达到1.4以上,因此这两种方案混布,能够带来成本降低和PUE目标达成。
靓野推荐: