什么是浸没式液冷?服务器用它降温有什么好处?
液冷散热是指通过液体来替代空气,把CPU、内存条、芯片组、扩展卡等器件在运行时所产生的热量带走。那么浸没式液冷就是利用冷却液,将一排排的服务器等浸泡在绝缘冷却液里,更好的达到保护电子元器件低温运行的效果,也能更好地提升服务器的使用寿命。
一、数据中心与降温技术的演变作为数据中心的自带命题,降温技术一直伴随着数据中心的发展阶段而不断升级。从阶段来看,两者的发展共同经历了四个阶段:
1在大型计算机机房时代,当时在降温方面的技术和经验,都处于比较低的水平。既缺乏精密的温度控制,也缺乏有效的防尘手段,起步阶段嘛,可以理解。
2在塔式服务器机房时代,开始有恒温恒湿的专用空调设备出现在机房中,并且有了新风系统和机房正压防灰尘。在数据处理和计算能力上都迈上了新台阶。
3在机架式服务器机房时代,已经广泛使用恒温恒湿的专用空调和初步的气流组织管理。这时的降温技术更加成熟,统一化、标准化管理能力也变得更好。
4在数据中心演变为云计算中心时代,高密度服务器、超大规模IDC成为主流。这一阶段的降温技术上,列间空调已经广泛使用,并且出现了精细的气流组织管理。
数据中心的发展与降温技术息息相关,两者相互促进,每一个阶段的数据中心,都要与之相匹配的降温技术。
二、对比比较
风冷散热与液冷散热对比
传统的风冷散热:通过散热器将CPU发出的热量转移至散热器块,然后通过风扇将热气吹走。因此还需要空调给环境降温。
液冷散热:指通过液体来替代空气,把CPU、内存条、芯片组、扩展卡等器件在运行时所产生的热量带走
液冷散热运行相比于风冷散热更安静(没有风扇产生的噪音);同体积液体比同体积空气带走的热量更多,导热更强,也就是降温效率更高;功耗也更低;而且采用液冷技术后,还可减少空调机的投入,节省空间。但液冷散热的成本高,维护比较困难。
目前市场中主要有两种形态的液冷服务器,一种是浸没式液冷服务器;第二种是板式液冷服务器。
冷板式液冷与浸没式液冷对比
冷板式液冷:发热量最大的部件CPU不直接与散热液体接触,而是通过将液体灌输在传导设备中,CPU端与液体传导设备贴在一起,热量通过传导设备带走,从而达到散热效果。
浸没式液冷:将发热器件浸没于液体中,通过直接接触进行热交换来降温。
目前全球采用冷板式散热方式的相对多一些,因为该技术对比浸没式液冷服务器要解决的工业难题、成本都更低一些。但浸没式液冷技术能在服务器架构上带来颠覆式改变, 对数据中心来说,冷板式液冷技术更多的是一种过渡技术,浸没液冷才是未来,因为它能以“釜底抽薪”的方式达到更好的降温效果。
三、液冷技术相关冷却液的类型介绍:
液冷分类为了水冷和其他介质冷却,可用的其他介质包括、矿物油、电子氟化液等
1水:比热容大,无污染但并非绝缘体,只能应用于非直接接触型液冷技术中。
2矿物油:是一种价格相对低廉的绝缘冷却液,单相矿物油无味无毒不易挥发,是一种环境友好型介质,但矿物油粘性较高,比较容易残留,特定条件下有燃烧的风险。
3氟化液:由于具有绝缘且不燃的惰性特点,不会对设备造成任何影响,是目前应用最广泛的浸没式冷却液。
按照冷却原理,又将液冷分为了冷板式液冷(间接式冷却)和浸没式液冷(直接式冷却)两种系统模式,上面已经做过对比。
综合来说,浸没液冷大幅降低传热温差,利用浸没式液冷整个数据中心的生态和运算能力都能得到良好优化,也更有助于提高高密度运算性能,计算密度和性能能实现新的突破。
冷服务器是一款具备综合性能更稳定、部署环境更绿色、能源损耗更低、几乎无噪音等超多优点的新型高效节能产品。
没有。拓维信息是一家中国的电子产品制造商,主要生产智能手机和其他消费电子产品。拓维信息并没有液冷服务器的业务或产品。但是公司AI服务器支持英伟达GPU的运行,公司部分AI产品已使用液冷技术。
我来和大家分享一下我的亲身经历。首先,我们主要做人工智能、深度学习、HPC、数据挖掘、大数据分析、高性能计算等领域。用他的服务器就够了,我们最多可以内置20个NVIDIA A100或者V100显卡。厂商造这么多GPU卡很少见。为此领导表扬了我,说我选的服务厂家很好(开心)。
在几年之前,液冷服务器还只是“网红”产品,足够亮眼,技术惊艳,但并没有形成整个行业的共识进行推广。而现在,在中国“3060”双碳目标以及绿色数据中心建设的要求下,液冷数据中心建设已经成为整个行业的主推赛道。
在液冷服务器出现之前,数据中心主要是传统风冷机房,普遍面临两大困境:一是能耗问题,其中主要是空调制冷能耗占比较大,导致数据中心PUE居高不下,能源利用效率低下;二是高密度支持问题,传统风冷机房允许的单机柜功率密度较低,一般在3~5kW/机柜,而高性能、AI等场景要求20kW/机柜或更高的功率密度。
在这一背景下,液冷技术开始受到业界的青睐。
和传统的风冷技术相比,液体导热能力是空气的25倍,同体积液体带走热量是同体积空气的近3000倍。另外在耗电量方面,液冷系统约比风冷系统节省电量30%-50%。
2022年6月29日,工信部等六部门发布《工业能效提升行动计划》,明确规定,到2025年,新建大型、超大型数据中心电能利用效率(PUE,指数据中心总耗电量与信息设备耗电量的比值)优于13。这为液冷服务器和液冷数据中心建设带来了重要发展机遇。
传统风冷数据中心PUE往往大于18,因为风冷数据中心有室外空调,空调压缩机要正常运转,要有更多的电能让空调压缩机的冷风吹进去,热风吸收回来,再通过压缩机进行来回处理,让热风变成冷风。另外风的比热容很低,要具备极大的风量,能源损耗非常大,要让1000W的服务器正常运转,通常需要耗费18千瓦的电量。
那液冷如何降低能耗,降低数据中心PUE?
和风冷方式不同,液冷方式可以控制进冷却液温度,只要冷却液温度能够降到40度以下,就能够保障数据中心正常运转,唯一需要多耗费的电能是要有循环泵,把冷却液不断的循环,有CDU把冷却液量精准的分配到每台服务器上,这意味着全国绝大部分地区都能够使用无需压缩机的全年全自然冷却,能够把整个数据中心的PUE降到12以下。
0条评论