液冷idc是什么意思
液冷idc(InternetDataCenter)表示使用液体冷却技术的数据中心,通过将冷却介质(通常是水或油)直接引入计算机和服务器设备中,从而取代传统的空气冷却系统。液冷idc可以提供更高效的散热,并可大幅降低计算机运行成本和能耗,同时延长设备使用寿命,因此受到越来越多数据中心的青睐。
什么是液冷?
顾名思义,液冷就是采用冷却液体接触热源进行冷却的方式。
传统服务器的冷却方式是通过空气进行换热,该技术方案很好的将IT设备与冷却设备进行了解耦,从而使得制冷系统形式能够实现多样化,但由于空气比热容较小,体积流量受服务器进风口大小限制,换热能力有限。自然而然,为了提高换热效率,采用更高比热容的换热介质、更大接触换热面积的、更大的换热体积流量的方案就成为了提高制冷效率的必然选择。从这三方面考虑,采用全面浸没的换热方式显然具有更高的换热效率,从而可以实现更好的节能效果。因此,液冷技术就顺其自然的进入了数据中心领域。
什么是风冷?如何区别液冷和风冷?
很多人会把传统意义上的风冷和液冷所对应的“风冷”概念相互混淆。其实,传统上所谓的风冷和水冷,指的是数据中心制冷系统的室外侧冷却方式。其中传统上默认的服务器冷却方式都是空气冷却(风冷);而液冷相对所说的风冷,指的是室内侧服务器的冷却散热方式,这二者完全是指的两个不同部分的换热形式。因此,可以参考冷水主机关于室内侧和室外侧换热整合的说法进行命名。按照数据中心室外侧散热方式+室内侧服务器换热方式的完整命名方式划分,可分为四种类型,其分类方式应该按照如图3所示两两组合:
风冷与水冷场景定义
由此我们可以得到更为全面的室外侧+室内侧的冷却类型分类命名方法:分别是全风冷(代表:传统DX系统精密空调)、风冷液冷(液冷+干冷器/风冷冷凝器)、水冷风冷(代表:水冷冷冻水系统)和水冷液冷(液冷+冷却塔)四种形式。
由此我们可以看到,液冷和传统上数据中心所说的“风冷”并不是同一维度的事物,我们需要将室内外两侧区分开来看待,液冷同样具有多种的换热形式,可以实现完全不消耗水的空气冷却方案,也可以称之为风冷液冷或无水液冷。
作为国内液冷技术的领先者,海光芯创基于自身液冷集成平台所自研的液冷光模块,在数据中心节能减碳方面发挥了巨大价值。可直接降低数据中心运营成本,能耗降低近40%。海光芯创 液冷光模块
液冷不仅是散热方式的改变,更可能改变整个数据中心的生态,目前关于液冷标准还处在一个需要完善的阶段。未来,海光芯创将携手产业链上下游合作伙伴,推动液冷标准的完善,从而让液冷数据中心快速发展。
来源:阿里基础云设施 作者:严瀚(仅做信息交流使用。如有侵权,联系删除)
冷板式液冷、浸没式液冷相关设计技术。
浪潮信息拥有300多项液冷技术领域核心专利,有浸没式液冷相关设计技术,《模块化数据中心通用规范》国家标准,牵头立项国内首批冷板式液冷核心部件团体标准,对液冷产业的快速发展及液冷技术的大规模普及建设具有重要的指导意义。
冷板技术是一种高效的服务器散热技术,其核心是利用散热板将服务器的热量导出,进而实现快速、稳定的运行。
在几年之前,液冷服务器还只是“网红”产品,足够亮眼,技术惊艳,但并没有形成整个行业的共识进行推广。而现在,在中国“3060”双碳目标以及绿色数据中心建设的要求下,液冷数据中心建设已经成为整个行业的主推赛道。
在液冷服务器出现之前,数据中心主要是传统风冷机房,普遍面临两大困境:一是能耗问题,其中主要是空调制冷能耗占比较大,导致数据中心PUE居高不下,能源利用效率低下;二是高密度支持问题,传统风冷机房允许的单机柜功率密度较低,一般在3~5kW/机柜,而高性能、AI等场景要求20kW/机柜或更高的功率密度。
在这一背景下,液冷技术开始受到业界的青睐。
和传统的风冷技术相比,液体导热能力是空气的25倍,同体积液体带走热量是同体积空气的近3000倍。另外在耗电量方面,液冷系统约比风冷系统节省电量30%-50%。
2022年6月29日,工信部等六部门发布《工业能效提升行动计划》,明确规定,到2025年,新建大型、超大型数据中心电能利用效率(PUE,指数据中心总耗电量与信息设备耗电量的比值)优于13。这为液冷服务器和液冷数据中心建设带来了重要发展机遇。
传统风冷数据中心PUE往往大于18,因为风冷数据中心有室外空调,空调压缩机要正常运转,要有更多的电能让空调压缩机的冷风吹进去,热风吸收回来,再通过压缩机进行来回处理,让热风变成冷风。另外风的比热容很低,要具备极大的风量,能源损耗非常大,要让1000W的服务器正常运转,通常需要耗费18千瓦的电量。
那液冷如何降低能耗,降低数据中心PUE?
和风冷方式不同,液冷方式可以控制进冷却液温度,只要冷却液温度能够降到40度以下,就能够保障数据中心正常运转,唯一需要多耗费的电能是要有循环泵,把冷却液不断的循环,有CDU把冷却液量精准的分配到每台服务器上,这意味着全国绝大部分地区都能够使用无需压缩机的全年全自然冷却,能够把整个数据中心的PUE降到12以下。
0条评论