大学数据中心机房运维风险的识别和应对论文

大学数据中心机房运维风险的识别和应对论文,第1张

大学数据中心机房运维风险的识别和应对论文

 无论是身处学校还是步入社会,许多人都写过论文吧,论文是探讨问题进行学术研究的一种手段。还是对论文一筹莫展吗?下面是我整理的大学数据中心机房运维风险的识别和应对论文,欢迎阅读,希望大家能够喜欢。

 摘要:

 高校数据中心机房作为学校重要的场所,为学校日常教学办公提供重要的网络保障。如何保障数据中心的安全,已经变得越来越重要。本文通过研究风险管理在高校数据中心机房的应用研究。以我校数据中心机房运维项目为例,进行风险管理各方面的研究。旨在提高机房管理人员管理能力,保障数据中心机房安全。

 关键词: 

 风险识别;风险应对;数据中心机房;

 引言:

 数据中心机房是学校数据汇聚交互的核心场所,所有接入校园网的数据都是通过数据中心机房进行交互。信息化大背景下,高校数据中心机房为师生提供更加便捷的服务,在教学、科研、办公等方面都有体现。

 近些年来,随着数字校园,智慧校园的推进,全国各高校的数据中心机房规模不断发展。“一表通系统”上线,“最多跑一次”改革,高校越来越多的业务都转到校园网上,办公流程的简化,业务流程的电子化,极大地方便了广大师生。但同时,伴随着不断增长的业务,扩增的机房设备,我们对数据中心的要求不断提升,日常的运维管理面临的风险也越来越大。

 1、高校数据中心运维引入风险管理的意义

 数据中心机房是全校网络的核心区域,包括服务器,IPS设备,业务系统等,是一系列硬件软件设备的总和。一般高中小学校不会涉及数据中心机房,而大学的数据中心机房则不同,需要专人管理。数据中心机房的日常维护绝不是简单的设备维修,而是一项长期且细致的工作,涉及的内容很多,包括机房设备维修,系统升级,安防检查等。因此我们需要引入一整套科学合理的管理方法来应对风险。

 数据中心机房的风险管理涉及内容很多有:风险识别,风险分析,风险应对等。其中,风险识别就是识别出潜在的风险,例如:机房火灾,漏水,停电等,是风险管理中最重要的内容之一,是确定潜在风险并分析找出应对方法的前提。所以一般对于风险识别的内容,我们会花费大量的时间来收集汇总,识别中会用到的德尔菲法,头脑风暴等方法。在数据中心日常运维中,针对识别出的高风险因素,我们需要制定相关的策略,包括消极和积极2方面的风险应对策略。风险存在是必然,我们需要积极引入风险管理机制,才能在出现问题时候迅速解决。

 2、数据中心机房运维的风险识别

 每个项目特性是千差万别,项目独特性决定项目实施过程存在很多不确定性,尽可能识别出不确定因素,是确保项目成功的重要因素[1]。风险识别不仅是风险管理的核心部分,更是基础内容。风险识别就是运用各种科学方法,识别项目的潜在风险,识别引发潜在风险的原因以及可能引发的`后果。特点:风险识别覆盖整个项目的生命周期。项目管理过程中,需要对风险进行反复地识别。风险识别的方法很多,包括德尔菲法,头脑风暴,专家判断等。

 为了尽可能全面地识别出潜在的风险,结合实际情况,对数据中心机房风险识别步骤包括3步,第一步,进行工作分解结构WBS,目的就是为了更直观地进行风险识别。第二步,风险收集,针对运维项目,需要组织人员进行现场勘查,发现存在的问题,收集数据中心的资料。针对运维现状,组织全体人员进行头脑风暴法识别潜在的风险,再利用专家调查法对收集的潜在风险进行识别。第三步,风险确认,组织相关人员进行总结分析归纳,最终得到运维项目风险登记册。

 (1)工作分解结构WBS

 数据中心运维项目按照一定原则进行工作分解,其目的是为了给风险识别提供依据。首先,组织运维项目的各部门的负责人员,技术人员等进行现场勘查,摸清机房现状。按照整体机房运维的思路做好地勘工作,地勘需要记录各个领域的工作,并进行工作分解。

 (2)风险收集

 本次运维项目的风险收集采用头脑风暴会议。在会议之前,需要收集项目相关资料,包括项目技术文件,运维记录,机房资料,合同等。然后提前将地勘记录和收集到的项目资料发给参与会议的人员,确保参会人员能提前充分了解项目内容。会议针对运维项目期间可能存在的风险,进行充分的讨论和汇总。由项目经理担任本次会议支持人,在主持人的推动下,与参会人员就项目的风险集思广益。所有参与人员均有平等发言权,对潜在的风险提出自己的观点。最后将会议的内容进行整理汇总,初步得到机房运维的风险因素。

 (3)风险确认

 风险确认即将收集汇总的风险因素发给专家小组,由专家小组再次确认,记录整理并完成风险识别。专家小组包括各行业专家、部门负责人等。专家小组通过了解数据中心机房运维项目的基本情况,背景等,对头脑风暴会议收集的风险因素进行多次征询,直至达成一致意见,完成项目风险识别。

 最终将运维项目风险分为5类,包括设备风险,业务风险,运维管理风险,自然风险,其他风险。设备风险包含:服务器风险,IPS设备风险,环控设备风险等。业务风险包括:特大网络故障风险,一般业务故障风险,业务质量下降风险等。运维管理风险包括:团队管理风险,沟通交流风险,人员管理风险等。自然风险包括:火灾,水灾,电磁干扰等,其他风险包括:合同风险,需求变化风险,人员技术风险等。

 3、数据中心机房运维的风险分析

 风险分析从2方面进行,第一个是定性风险分析,定性分析是指采取一定手段,综合评估分析存在的风险概率以及它的影响程度,并对风险按风险程度排序。同时为下一步分析提供依据。本次运维项目研究所用到的分析工具有概率-影响矩阵,风险分类,专家判断法等。定性风险分析过程作用是为了降低项目的不确定性,并重点关注高优先级的风险,有利于后续针对性开展风险应对。

 概率-影响矩阵(P-I矩阵)是经常使用的工具,它是针对不同程度的风险,进行分级和排序,便于下一步进行定量分析及应对。在概率-影响矩阵中,一般将横坐标和纵坐标从低到高划分为5个标准,用数值01、03、05、07、09表示,一共划分为25个方格,方格内数字表示风险值R,公式为R=PI。R数值越低,概率越小,影响程度越小。R数值越高,概率越高,影响程度越大。概率高,影响程度高的区域,一般在右上角,属于高风险,需要采取重点措施,并采取积极地应对策略。概率低,影响程度低的区域,一般在左下角,属于低风险区域,一般列入待观察风险清单,一般不需要采取积极管理措施,监测即可。

 第二个是定量风险分析,它是对定性分析过程中,对项目影响很大,风险等级很高的风险进行更加具体的分析。它是对风险事件的影响程度分析,一般高风险事件分配高数值,低风险分配低数值。定量风险分析的目的是为了确定重大的风险,同时提醒管理人员对高风险,进行密切关注,做好应对准备。

 4、数据中心机房运维的风险应对

 风险应对过程是在风险分析之后,针对存在的风险,在分析风险概率及其影响程度基础上,制定一系列措施降低风险、提高有利机会。通过科学合理的管理理论和措施,可以有效规避和降低项目风险。风险应对措施必须及时有效,并制定多种应对方式,择优选择。

 风险应对方法有很多,针对已总结的风险,结合数据中心项目的具体情况制定相关的应对策略包括:风险规避,风险转移,风险预防,风险减轻。

 (1)风险规避:风险规避是为了达到项目目的,改变原来计划,从而规避风险,减少风险带来的影响。如:调试项目范围,利用多种手段达到目的等。在机房检修的时候,必须秉承着不影响机房正常运行的原则。检修UPS蓄电池,进行放电时,不能影响机房正常运行。检修空调时,应该要一个一个进行检查,不能同时关闭所有机房空调,否则会影响机房正常散热,导致服务器出现故障。维护业务服务器时,必须不能影响其他业务的运行。

 (2)风险转移:风险转移目的是将风险转嫁给第三方人员,包括风险的影响和责任。在数据中心机房运维中,常见的风险转移就是第三方公司维保。因为数据中心机房的重要性,所以必须保证机房724小时都要稳定运行。单单依靠网络中心一个部门是无法保障机房的一年365天的安全,还必须要有其他部门和第三方运维公司的配合。现在高校的数据中心机房都会有第三方公司运维,包括服务器的维保,环境监控的维保,网络安全维保等。转移工具包括合同、履约保证协议、保密协议,保证书等。通过签署合同或协议,能将风险的责任转移给第三方。

 (3)风险预防:风险预防就是针对存在的风险,制定应急预案,避免风险的发生。施工或运维过程中一旦出现风险或者发现目标与预期有较大偏差时,即可按照应急方案采取相应措施。机房定期进行应急演练是必要的,针对运维情况制定不同的应急演练内容,如:特大网络故障,一般业务故障,火灾等。有利于提高运维人员对突发安全事件的响应与处置能力,保障学校机房安全、持续和稳定运行。机房内不需要的设备必须及时清理,必须建立定期检查制度,对相关设备进行详细检查[2]。

 (4)风险减轻:风险减轻就是减轻风险事件所带来的影响,减低风险发生的概率。它分为两个方面,第一个是已经发生的风险,要采取积极的措施减少风险带来的影响。第二个是还没发生的风险,要采取积极措施减少发生概率。例如:在机房整理线缆时候,必须按照行业规范,进行走线,并按照统一标准添加标签,确保线材整洁。这样能减少后期维护的成本,当出现线路问题时,能在第一时间找到问题线路。此外,在机房配备UPS电源,也是为了保护服务器设备,在断电情况下能继续工作一段时间,减少服务器突然断电引发的一系列问题。

 5、结语

 数据中心机房承担着高校全部的信息化业务,运维内容包括服务器,IPS设备,业务系统等软硬件设备,涉及多个部门和第三方运维公司。因此,高校数据中心机房运维是一个长期、复杂的项目,需要持续性地管理。

 风险管理作为一种科学的管理手段,在数据中心机房的运维中的应用有着重要的意义,通过风险管理研究,识别、分析和应对等,我们可以清晰地了解整个运维项目存在的风险。识别潜在风险,通过科学的风险分析手段,应对不同程度的风险。

 参考文献

 [1]郑渝莎浅谈通信机房搬迁项目的风险管理[J]江西建材,2017(13):261+263

 [2]王欣信息机房运维及其管理的主要策略分析[J]计算机产品与流通,2020(01):131

;

服务器放在家里散热采用风冷式降温方法。目前,机房内的服务器散热方式通常采用风冷式降温方法。但是,在大型的数据中心,仅靠风冷已经不足以满足高热流密度服务器的散热要求。传统的风冷模式均采用间接接触冷却的方式进行,其具有传热过程复杂。

存在接触热阻及对流换热热阻,热阻总和大,换热效率较低,换热过程高低温热源间温差较大,需要较低的室外低温热源引导换热过程进行等多种弊端。

服务器简介

在技术意义上,服务器是计算机程序或设备的实例本质可以说是一种计算机,用于处理请求并通过Internet或本地网络将数据传送到另一台计算机。

服务器是用于管理网络资源。例如,用户可以设置服务器以控制对网络的访问,发送/接收电子邮件,管理打印作业或托管网站。

他们也擅长执行激烈的计算。某些服务器还致力于特定任务,通常称为专用任务。但是,如今的许多服务器都是共享服务器,在Web服务器的情况下,它们可以承担电子邮件,DNS,FTP甚至多个网站的责任。

机架式服务器噪音都比较大,这是服务器的用途决定的。2U机架式噪音来源主要是机箱内风墙的噪音,一般是三到四个热插拔风扇,转速都比较高,如果没买过服务器的,这个声音肯定接受不了,即使是平稳运行后都觉得声音大;再一个就是如果是冗余电源的话,声音也比较大。目前为止,没有有效的解决办法,一般都是把风墙风扇拔掉(如果CPU压的是风扇的话),如果是散热片,肯定不能拔掉;像你这种硬盘比较多,硬盘发热量比较大,没有更好的解决办法。只能忍了,或者是你试着拔掉风墙风扇,随时监控机器温度试一下,发现过热,立马插上风扇。

惠普推动绿色刀片策略造绿色数据中心

随着国家政策对节能降耗要求的提高,节能降耗正成为国家、全社会关注的重点。而IT能耗在所有的电力使用当中所占比重的不断上升,已经使其成为社会提倡节能降耗主要领域之一。做为全球领先的IT公司和一家具有强烈社会责任感的企业,惠普公司积极倡导“绿色IT”的理念,并加大研发,推出了一系列的针对绿色IT的创新技术和产品。10月26日,惠普公司在香山饭店举办了“绿色刀片”的研讨会,介绍了惠普公司新一代数据中心以及新一代刀片系统BladeSystem c-Class在供电散热等方面的绿色创新技术以及环保节能优势,并推出了针对绿色数据中心的完整解决方案。

长期以来,更强大的数据中心处理能力一直是我们追求的目标。但在能源开销与日俱增的今天,处理能力发展的另一面是需要消耗更多的资源。而且随着服务器密度的不断增大,供电需求也在相应增加,并由此产生了更多的热量。在过去的十年中,服务器供电密度平均增长了十倍。据IDC预测,到2008年IT采购成本将与能源成本持平。另一方面,数据中心的能耗中,冷却又占了能耗的60%到70%。因此,随着能源价格的节节攀升,数据中心的供电和冷却问题,已经成为所有的数据中心都无法回避的问题。

惠普公司十几年来一直致力于节能降耗技术的研究,并致力于三个层面的创新:一是数据中心层面环境级的节能技术;二是针对服务器、存储等IT产品在系统层面的绿色设计;三是对关键节能部件的研发,如供电、制冷、风扇等方面的技术创新。目前,来自惠普实验室的这些创新技术正在引领业界的绿色趋势。针对数据中心环境层面,惠普推出了全新的动态智能冷却系统帮助客户构建新一代绿色数据中心或对原有数据中心进行改造;在设备层面,惠普的新一代绿色刀片服务器系统以能量智控(Thermal Logic)技术以及PARSEC体系架构等方面的创新成为未来数据中心节能的最关键基础设施;同时这些创新技术体现在一些关键节能部件上,如Active Cool(主动散热)风扇、动态功率调整技术(DPS, Dynamic Power Saver)等。惠普公司的绿色创新将帮助客户通过提高能源效率来降低运营成本。

HP DSC精确制冷 实现绿色数据中心

传统数据中心机房采用的是平均制冷设计模式,但目前随着机架式服务器以及刀片服务器的出现和普及,数据中心出现了高密度服务器与低密度混合的模式,由于服务器的密度不均衡,因而产生的热量也不均衡,传统数据中心的平均制冷方法已经很难满足需求。造成目前数据中心的两个现状:一是目前85%以上的机房存在过度制冷问题;二在数据中心的供电中,只有1/3用在IT设备上,而制冷费用占到总供电的2/3 。因此降低制冷能耗是数据中心节能的关键所在。

针对传统数据中心机房的平均制冷弊端,惠普推出了基于动态智能制冷技术的全新解决方案——“惠普动态智能冷却系统”(DSC, Dynamic Smart Cooling)。动态智能冷却技术的目标是通过精确制冷,提高制冷效率。DSC可根据服务器运行负荷动态调控冷却系统来降低能耗,根据数据中心的大小不同,节能可达到20 %至45%。

DSC结合了惠普在电源与冷却方面的现有创新技术,如惠普刀片服务器系统 c-Class架构的重要组件HP Thermal Logic等技术,通过在服务器机架上安装了很多与数据中心相连的热能探测器,可以随时把服务器的温度变化信息传递到中央监控系统。当探测器传递一个服务器温度升高的信息时,中央监控系统就会发出指令给最近的几台冷却设备,加大功率制冷来降低那台服务器的温度。当服务器的温度下降后,中央监控系统会根据探测器传递过来的新信息,发出指令给附近的冷却设备减小功率。惠普的实验数据显示,在惠普实验室的同一数据中心不采用DSC技术,冷却需要117千瓦,而采用DSC系统只需要72千瓦。

惠普刀片系统:绿色数据中心的关键生产线

如果把数据中心看作是一个“IT工厂”,那么“IT工厂”节能降耗不仅要通过DSC等技术实现“工厂级”环境方面的节能,最重要的是其中每一条“生产线”的节能降耗,而数据中心的生产线就是服务器、存储等IT设备。目前刀片系统以节约空间、便于集中管理、易于扩展和提供不间断的服务,满足了新一代数据中心对服务器的新要求,正成为未来数据中心的重要“生产线”。因此刀片系统本身的节能环保技术是未来数据中心节能降耗的关键所在。

惠普公司新一代绿色刀片系统HP BladeSystem c-Class基于工业标准的模块化设计,它不仅仅集成了刀片服务器和刀片存储,还集成了数据中心的众多要素如网络、电源/冷却和管理等,即把计算、存储、网络、电源/冷却和管理都整合到一起。同时在创新的BladeSystem c-Class刀片系统中,还充分考虑了现代数据中心基础设施对电源、冷却、连接、冗余、安全、计算以及存储等方面的需求。

在标准化的硬件平台基础上,惠普刀片系统的三大关键技术,更令竞争对手望尘莫及。首先是惠普洞察管理技术——它通过单一的控制台实现了物理和虚拟服务器、存储、网络、电源以及冷却系统的统一和自动化管理,使管理效率提升了10倍,管理员设备配比达到了1:200。第二是能量智控技术——通过有效调节电力和冷却减少能量消耗,超强冷却风扇相对传统风扇降低了服务器空气流40%,能量消耗减少50%。最后是虚拟连接架构——大大减少了线缆数量,无需额外的交换接口管理。允许服务器额外增加、可替代、可移动,并无需管理员参与SAN和LAN的更改。

目前,惠普拥有完整的刀片服务器战略和产品线,既有支持2路或4路的ProLiant刀片服务器,也有采用安腾芯片的Integrity刀片系统,同时还有存储刀片、备份刀片等。同时,惠普BladeSystem c-Class刀片服务器系统已得到客户的广泛认可。根据IDC发布的2006年第四季度报告显示,惠普在刀片服务器的工厂营业额和出货量方面都占据了全球第一的位置。2007年第二季度,惠普刀片市场份额472%,领先竞争对手达15%,而且差距将会继续扩大。作为刀片市场的领导者,惠普BladeSystem c-Class刀片系统将成为数据中心的关键基础设施。

PARSEC体系架构和能量智控:绿色生产线的两大核心战略

作为数据中心的关键基础设施,绿色是刀片系统的重要发展趋势之一,也是数据中心节能的关键所在。HP BladeSystem c-Class刀片系统的创新设计中,绿色就是其关键创新技术之一,其独特的PARSEC体系架构和能量智控技术就是这条绿色生产线的两大关键技术。

HP PARSEC体系结构是惠普刀片系统针对绿色策略的另一创新。目前机架服务器都采用内部几个小型局部风扇布局,这样会造成成本较高、功率较大、散热能力差、消费功率和空间。HP PARSEC(Parallel Redundant Scalable Enterprise Cooling)体系结构是一种结合了局部与中心冷却特点的混合模式。机箱被分成四个区域,每个区域分别装有风扇,为该区域的刀片服务器提供直接的冷却服务,并为所有其它部件提供冷却服务。由于服务器刀片与存储刀片冷却标准不同,而冷却标准与机箱内部的基础元件相适应,甚至有时在多重冷却区内会出现不同类型的刀片。配合惠普创新的 Active Cool风扇,用户就可以轻松获得不同的冷却配置。惠普风扇设计支持热插拔,可通过添加或移除来调节气流,使之有效地通过整个系统,让冷却变得更加行之有效。

惠普的能量智控技术(Thermal Logic)是一种结合了惠普在供电、散热等方面的创新技术的系统级节能方法,该技术提供了嵌入式温度测量与控制能力,通过即时热量监控,可追踪每个机架中机箱的散热量、内外温度以及服务器耗电情况,这使用户能够及时了解并匹配系统运行需求,与此同时以手动或自动的方式设定温度阈值。或者自动开启冷却或调整冷却水平以应对并解决产生的热量,由此实现最为精确的供电及冷却控制能力。通过能量智控管理,客户可以动态地应用散热控制来优化性能、功耗和散热性能,以充分利用电源预算,确保灵活性。采用能量智控技术,同样电力可以供应的服务器数量增加一倍,与传统的机架堆叠式设备相比,效率提升30%。在每个机架插入更多服务器的同时,所耗费的供电及冷却量却保持不变或是减小,整体设计所需部件也将减少。

Active Cool风扇、DPS、电源调整仪:生产线的每个部件都要节能

惠普BladeSystem c-Class刀片系统作为一个“绿色生产线”,通过能量智控技术和PARSEC体系架构实现了“生产线”级的节能降耗,而这条生产线上各组成部件的技术创新则是绿色生产线的关键技术保障。例如,深具革新意义的Active Cool风扇,实现智能电源管理的ProLiant 电源调整仪以及动态功率调整等技术。

风扇是散热的关键部件。风扇设计是否越大越好?答案是否定的。市场上有的刀片服务器产品采用了较大型的集中散热风扇,不仅占用空间大、噪音大,冗余性较差、有漏气通道,而且存在过渡供应、需要较高的供电负荷。

惠普刀片服务器中采用了创新的Active Cool(主动散热)风扇。Active Cool风扇的设计理念源于飞行器技术,体积小巧,扇叶转速达136英里/小时,在产生强劲气流的同时比传统型风扇设计耗电量更低。同时具有高风量(CFM)、高风压、最佳噪音效果、最佳功耗等特点,仅使用100瓦电力便能够冷却16台刀片服务器。这项深具革新意义的风扇当前正在申请20项专利。Active Cool风扇配合PARSEC散热技术,可根据服务器的负载自动调节风扇的工作状态,并让最节能的气流和最有效的散热通道来冷却需要的部件,有效减少了冷却能量消耗,与传统散热风扇相比,功耗降低66%,数据中心能量消耗减少50%。

在供电方面,同传统的机架服务器独立供电的方式相比,惠普的刀片系统采用集中供电,通过创新的ProLiant 电源调整仪以及动态功率调整等技术实现了智能电源管理,根据电源状况有针对性地采取策略,大大节省了电能消耗。

ProLiant 电源调整仪(ProLiant Power Regulator)可实现服务器级、基于策略的电源管理。电源调整议可以根据CPU的应用情况为其提供电源,必要时,为CPU应用提供全功率,当不需要时则可使CPU处于节电模式,这使得服务器可以实现基于策略的电源管理。事实上可通过动态和静态两种方式来控制CPU的电源状态,即电源调整议即可以设置成连续低功耗的静态工作模式,也可以设置成根据CPU使用情况自动调整电源供应的动态模式。目前电源调整议可适用于AMD或英特尔的芯片,为方便使用,惠普可通过iLO高级接口显示处理器的使用数据并通过该窗口进行配置操作。电源调整议使服务器在不损失性能的前提下节省了功率和散热成本。

惠普创新的动态功率调整技术(DPS, Dynamic Power Saver)可以实时监测机箱内的电源消耗,并根据需求自动调节电源的供应。由于电源在高负荷下运转才能发挥最大效力,通过提供与用户整体基础设施要求相匹的配电量, DPS进一步改进了耗电状况。例如,当服务器对电源的需求较少时,可以只启动一对供电模块,而使其它供电模块处于stand by状态,而不是开启所有的供电单元,但每个供电单元都以较低的效率运行。当对电源需求增加时,可及时启动STAND BY的供电模块,使之满足供电需求。这样确保了供电系统总是保持最高效的工作状态,同时确保充足的电力供应,但通过较低的供电负荷实现电力的节约。通过动态功率调整技术,每年20个功率为0075/千瓦时的机箱约节省5545美元。

结束语

传统数据中心与日俱增的能源开销备受关注,在过去十年中服务器供电费用翻番的同时,冷却系统也为数据中心的基础设施建设带来了空前的压力。为了解决节节攀升的热量与能源消耗的难题,惠普公司创新性地推出了新一代绿色刀片系统BladeSystem c-Class和基于动态智能制冷技术DSC的绿色数据中心解决方案,通过惠普创新的PARSEC体系架构、能量智控技术(Thermal Logic)以及Active Cool风扇等在供电及散热等部件方面的创新技术来降低能耗,根据数据中心的大小不同,这些技术可为数据中心节能达到20 %至45%。

液冷散热是指通过液体来替代空气,把CPU、内存条、芯片组、扩展卡等器件在运行时所产生的热量带走。那么浸没式液冷就是利用冷却液,将一排排的服务器等浸泡在绝缘冷却液里,更好的达到保护电子元器件低温运行的效果,也能更好地提升服务器的使用寿命。 

一、数据中心与降温技术的演变

作为数据中心的自带命题,降温技术一直伴随着数据中心的发展阶段而不断升级。从阶段来看,两者的发展共同经历了四个阶段:

1在大型计算机机房时代,当时在降温方面的技术和经验,都处于比较低的水平。既缺乏精密的温度控制,也缺乏有效的防尘手段,起步阶段嘛,可以理解。

2在塔式服务器机房时代,开始有恒温恒湿的专用空调设备出现在机房中,并且有了新风系统和机房正压防灰尘。在数据处理和计算能力上都迈上了新台阶。

3在机架式服务器机房时代,已经广泛使用恒温恒湿的专用空调和初步的气流组织管理。这时的降温技术更加成熟,统一化、标准化管理能力也变得更好。

4在数据中心演变为云计算中心时代,高密度服务器、超大规模IDC成为主流。这一阶段的降温技术上,列间空调已经广泛使用,并且出现了精细的气流组织管理。

数据中心的发展与降温技术息息相关,两者相互促进,每一个阶段的数据中心,都要与之相匹配的降温技术。

 

二、对比比较

风冷散热与液冷散热对比

传统的风冷散热:通过散热器将CPU发出的热量转移至散热器块,然后通过风扇将热气吹走。因此还需要空调给环境降温。

液冷散热:指通过液体来替代空气,把CPU、内存条、芯片组、扩展卡等器件在运行时所产生的热量带走

液冷散热运行相比于风冷散热更安静(没有风扇产生的噪音);同体积液体比同体积空气带走的热量更多,导热更强,也就是降温效率更高;功耗也更低;而且采用液冷技术后,还可减少空调机的投入,节省空间。但液冷散热的成本高,维护比较困难。

目前市场中主要有两种形态的液冷服务器,一种是浸没式液冷服务器;第二种是板式液冷服务器。

冷板式液冷与浸没式液冷对比

冷板式液冷:发热量最大的部件CPU不直接与散热液体接触,而是通过将液体灌输在传导设备中,CPU端与液体传导设备贴在一起,热量通过传导设备带走,从而达到散热效果。

浸没式液冷:将发热器件浸没于液体中,通过直接接触进行热交换来降温。

目前全球采用冷板式散热方式的相对多一些,因为该技术对比浸没式液冷服务器要解决的工业难题、成本都更低一些。但浸没式液冷技术能在服务器架构上带来颠覆式改变, 对数据中心来说,冷板式液冷技术更多的是一种过渡技术,浸没液冷才是未来,因为它能以“釜底抽薪”的方式达到更好的降温效果。 

三、液冷技术相关

冷却液的类型介绍:  

液冷分类为了水冷和其他介质冷却,可用的其他介质包括、矿物油、电子氟化液等

1水:比热容大,无污染但并非绝缘体,只能应用于非直接接触型液冷技术中。

2矿物油:是一种价格相对低廉的绝缘冷却液,单相矿物油无味无毒不易挥发,是一种环境友好型介质,但矿物油粘性较高,比较容易残留,特定条件下有燃烧的风险。

3氟化液:由于具有绝缘且不燃的惰性特点,不会对设备造成任何影响,是目前应用最广泛的浸没式冷却液。

按照冷却原理,又将液冷分为了冷板式液冷(间接式冷却)和浸没式液冷(直接式冷却)两种系统模式,上面已经做过对比。

综合来说,浸没液冷大幅降低传热温差,利用浸没式液冷整个数据中心的生态和运算能力都能得到良好优化,也更有助于提高高密度运算性能,计算密度和性能能实现新的突破。 

冷服务器是一款具备综合性能更稳定、部署环境更绿色、能源损耗更低、几乎无噪音等超多优点的新型高效节能产品。

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 大学数据中心机房运维风险的识别和应对论文

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情