idrac能看到服务器能耗吗?,第1张

能看到。

通过前面板的液晶交互式面板可以看到服务器的实时功耗,也可以通过iDRAC卡进行监控。

Dell对服务器(DELL PowerEdge)的管理主要提供了三种管理工具,分别是Dell Remote Access Controller(IDRAC)、OpenManage Server Administrator(OMSA)和OpenManage Essentials(OME),这些管理工具都依赖于集成戴尔远程访问控制卡(iDRAC)。

远程管理卡是安装在服务器上的硬件设备,提供一个以太网接口,使它可以连接到局域网内,提供远程访问。这种远程管理基于BMC(底板管理控制器),由集成在管理卡上的系统微处理器负责监测和管理操作系统之外的服务器环境和状态。它既不会占用服务器系统的资源,也不会影响服务器系统的运行。iDRAC又称为Integrated Dell Remote Access Controller,也就是集成戴尔远程控制卡,这是戴尔服务器的独有功能,iDRAC卡相当于是附加在服务器上的一台小型计算机,可以实现一对一的服务器远程管理与监控,通过与服务器主板上的管理芯片BMC进行通信,监控与管理服务器的硬件状态信息。它拥有自己的系统和IP地址,与服务器上的OS无关,是管理员进行远程访问和管理的利器,戴尔服务器集成了iDRAC控制卡,我们就可以扔掉价格昂贵的KVM设备了。

SuperPOD 基于 NVIDIA DGX A100 系统和 NVIDIA Mellanox 网络架构构建,其证明了可以凭借单个平台将全球最复杂语言理解模型的处理时间从数周缩短至一个小时之内。

去年,NVIDIA 基于多台 DGX 系统组合构建了 DGX SuperPOD,该超计算机以远低于一般超级计算机的成本和能耗跻身性能世界前 20 之列。如今,众多企业所面临的最大的挑战和机遇,其根源都在于数据。DGX A100 作为当今全球最先进的 AI 系统,能够帮助企业机构以前所未有的速度解决复杂问题,同时为跨分析、训练和推理的 AI 计算力交付带来强大的弹性和灵活性。

数据中心的能耗由以下几部分组成。

    (1)IT设备。

    (2)制冷系统设备。

    (3)供配电系统设备。

    (4)其他设备。

典型数据中心能耗构成如图所示。其中,数据中心能耗比重最大的部分为IT设备,其次为制冷系统设备、供配电系统设备及其他消耗电能的数据中心设施。

 随着数据中心规模扩大及建筑体量的增大,冷水系统方案得到越来越多的应用。随之而来的是大量水资源的消耗及循环水的净化处理问题。同时,若采用蒸发冷却方案,其对清洁水的要求也越来越高。从能源利用的综合角度来看,单纯地靠PUE指标难以全面准确地评估数据中心的能耗水平,为全面合理地评价绿色数据中心工程,TGG在2009年首次提出并引入针对水利用效率评价的WUE(Water UseageEffectiveness)指标。水利用效率作为评价数据中心用水状况的指标,定义为数据中心水资源的全年消耗量与数据中心IT设备全年耗电量的比值,单位为L/kW·h。

WUE=数据中心水资源的全年消耗量/数据中心IT设备全年耗电量

 目前,可采用水蒸发冷却的方法来促使制冷空调系统效率的提升,尤其在环境干燥的地区。但与此同时,PUE指标的降低也带来了水资源消耗的升高。对于采用冷水方案的工程,PUE与WUE存在一定的负相关性。这也决定了在实践应用中需要进行权衡,找到两者之间合理的平衡区间。与此对应的是,如今很多大型数据中心工程都选址在北方等气候寒冷、干燥的地区,水资源短缺也是需要考虑的重要问题。

    以往人们对数据中心资源消耗的关注点往往集中在其电力消耗或燃料消耗上,认为一个数据中心只要电力指标优良,就可以认定为其为绿色数据中心;但近几十年来,全球承受着旷日持久的系统性干旱,并且随着人口的增长,工业规模的扩大,水资源消耗变得越来越紧迫,全球水资源缺乏的现状不会改变。

    因此,面对水资源日趋匮乏的态势,业内也逐渐将目光转移到数据中心的水资源消耗上来;根据Uptime Institute的调查数据,数据中心平均规模大约为1MW,每年消耗的水量为26 600~30 400m³。

    数据中心使用水的主要目的是散热,即利用水作为载冷工质持续带走IT设备热量。最常见的为冷冻水系统和冷却水系统,在这些系统中,冷水流经计算机机房的制冷单元;风扇吹过冷冻水散热盘管,向IT设备提供冷空气;然后水流回冷却装置中被重新冷却。冷却水系统依靠冷却塔利用水的蒸发来散发热量,利用水与空气流动接触后进行冷热交换带走热量达到蒸发散热降低水温的目的。

    采用传统水冷空调系统的数据中心在运行过程中水资源的消耗主要来源于冷却塔(尤其是开式冷却塔)的运行。通常一个1MW的数据中心通过冷却塔每小时泵送约230m³的冷凝水,会有1%~2%的水被蒸发、作为细水雾被风吹走。每年大约会消耗25 400m³的水。

    另外,冷凝水被重复蒸发并排放到大气中,会携带矿物质、灰尘及其他污染物。这些水必须被定期处理。上述规模的数据中心每年通过排放或补水大约会消耗5000m³的水。

    总体来讲,使用传统水冷方式的1MW数据中心,每年用水量大约为30 000m³,这些数据并没有将数据中心加湿系统和空调末端泄水的消耗计算在内;另外,随着时间的推移,在水冷设备上,尤其是换热器翅片或换热管上会累积水垢或杂质,在去除这些影响空调运行安全和运行效率的污垢时,常用的方法是用水冲洗并排空,这一过程也消耗了大量的水资源。

2 数据中心的主要耗水来源

    采用水冷空调系统的数据中心,其耗水主要来源可概括为以下几个方面。

    1)冷却水蒸发采用冷却塔制取低温冷却水时,数据中心的热量主要靠冷却水的蒸发散发到大气环境中(采用干式冷却器的系统主要依靠空气与冷却水的对流换热,但其效率低,占地面积较大,且对气候条件的要求较为苛刻),水蒸发损失为数据中心水资源消耗的主要部分。

    2)冷却水排水通常,数据中心冷却水系统的运行水温为32℃/37℃,该温度较容易滋生细菌,适宜藻类和污垢的生长及在管壁上的附着,并且需要通过冷却水排污来配合控制加药浓度,这一过程也会产生水的消耗。

    3)IT房间加湿用水冬季,尤其是我国北方地区,室外环境相对湿度较低,机房内湿度受此影响需通过加湿系统维持机房内的湿度要求,需要消耗加湿用水。

    4)软化水设备用水冷冻水及加湿水等闭式水系统在运行过程中由于泄漏、排水会造成一定的损失,为保证运行安全及系统压力,需要及时补充软化水,通过软化水设备对市政补水处理后补充到系统中。

    5)设备维护用水系统运行过程中,冲洗、管道压力测试等需要的用水。

    6)柴发系统运行及维护用水此部分为柴发机组排烟净化及机组冷却用水,这部分水资源消耗所占比例较小。此外,季节不同,数据中心各项用水比例会发生明显变化。

    WUE指标目前还没有被广泛用于工业中,并且很少被引用,但水已经成为数据中心十分显著的因素,未来水资源利用效率一定会进入PUE度量工作中。

惠普推动绿色刀片策略造绿色数据中心

随着国家政策对节能降耗要求的提高,节能降耗正成为国家、全社会关注的重点。而IT能耗在所有的电力使用当中所占比重的不断上升,已经使其成为社会提倡节能降耗主要领域之一。做为全球领先的IT公司和一家具有强烈社会责任感的企业,惠普公司积极倡导“绿色IT”的理念,并加大研发,推出了一系列的针对绿色IT的创新技术和产品。10月26日,惠普公司在香山饭店举办了“绿色刀片”的研讨会,介绍了惠普公司新一代数据中心以及新一代刀片系统BladeSystem c-Class在供电散热等方面的绿色创新技术以及环保节能优势,并推出了针对绿色数据中心的完整解决方案。

长期以来,更强大的数据中心处理能力一直是我们追求的目标。但在能源开销与日俱增的今天,处理能力发展的另一面是需要消耗更多的资源。而且随着服务器密度的不断增大,供电需求也在相应增加,并由此产生了更多的热量。在过去的十年中,服务器供电密度平均增长了十倍。据IDC预测,到2008年IT采购成本将与能源成本持平。另一方面,数据中心的能耗中,冷却又占了能耗的60%到70%。因此,随着能源价格的节节攀升,数据中心的供电和冷却问题,已经成为所有的数据中心都无法回避的问题。

惠普公司十几年来一直致力于节能降耗技术的研究,并致力于三个层面的创新:一是数据中心层面环境级的节能技术;二是针对服务器、存储等IT产品在系统层面的绿色设计;三是对关键节能部件的研发,如供电、制冷、风扇等方面的技术创新。目前,来自惠普实验室的这些创新技术正在引领业界的绿色趋势。针对数据中心环境层面,惠普推出了全新的动态智能冷却系统帮助客户构建新一代绿色数据中心或对原有数据中心进行改造;在设备层面,惠普的新一代绿色刀片服务器系统以能量智控(Thermal Logic)技术以及PARSEC体系架构等方面的创新成为未来数据中心节能的最关键基础设施;同时这些创新技术体现在一些关键节能部件上,如Active Cool(主动散热)风扇、动态功率调整技术(DPS, Dynamic Power Saver)等。惠普公司的绿色创新将帮助客户通过提高能源效率来降低运营成本。

HP DSC精确制冷 实现绿色数据中心

传统数据中心机房采用的是平均制冷设计模式,但目前随着机架式服务器以及刀片服务器的出现和普及,数据中心出现了高密度服务器与低密度混合的模式,由于服务器的密度不均衡,因而产生的热量也不均衡,传统数据中心的平均制冷方法已经很难满足需求。造成目前数据中心的两个现状:一是目前85%以上的机房存在过度制冷问题;二在数据中心的供电中,只有1/3用在IT设备上,而制冷费用占到总供电的2/3 。因此降低制冷能耗是数据中心节能的关键所在。

针对传统数据中心机房的平均制冷弊端,惠普推出了基于动态智能制冷技术的全新解决方案——“惠普动态智能冷却系统”(DSC, Dynamic Smart Cooling)。动态智能冷却技术的目标是通过精确制冷,提高制冷效率。DSC可根据服务器运行负荷动态调控冷却系统来降低能耗,根据数据中心的大小不同,节能可达到20 %至45%。

DSC结合了惠普在电源与冷却方面的现有创新技术,如惠普刀片服务器系统 c-Class架构的重要组件HP Thermal Logic等技术,通过在服务器机架上安装了很多与数据中心相连的热能探测器,可以随时把服务器的温度变化信息传递到中央监控系统。当探测器传递一个服务器温度升高的信息时,中央监控系统就会发出指令给最近的几台冷却设备,加大功率制冷来降低那台服务器的温度。当服务器的温度下降后,中央监控系统会根据探测器传递过来的新信息,发出指令给附近的冷却设备减小功率。惠普的实验数据显示,在惠普实验室的同一数据中心不采用DSC技术,冷却需要117千瓦,而采用DSC系统只需要72千瓦。

惠普刀片系统:绿色数据中心的关键生产线

如果把数据中心看作是一个“IT工厂”,那么“IT工厂”节能降耗不仅要通过DSC等技术实现“工厂级”环境方面的节能,最重要的是其中每一条“生产线”的节能降耗,而数据中心的生产线就是服务器、存储等IT设备。目前刀片系统以节约空间、便于集中管理、易于扩展和提供不间断的服务,满足了新一代数据中心对服务器的新要求,正成为未来数据中心的重要“生产线”。因此刀片系统本身的节能环保技术是未来数据中心节能降耗的关键所在。

惠普公司新一代绿色刀片系统HP BladeSystem c-Class基于工业标准的模块化设计,它不仅仅集成了刀片服务器和刀片存储,还集成了数据中心的众多要素如网络、电源/冷却和管理等,即把计算、存储、网络、电源/冷却和管理都整合到一起。同时在创新的BladeSystem c-Class刀片系统中,还充分考虑了现代数据中心基础设施对电源、冷却、连接、冗余、安全、计算以及存储等方面的需求。

在标准化的硬件平台基础上,惠普刀片系统的三大关键技术,更令竞争对手望尘莫及。首先是惠普洞察管理技术——它通过单一的控制台实现了物理和虚拟服务器、存储、网络、电源以及冷却系统的统一和自动化管理,使管理效率提升了10倍,管理员设备配比达到了1:200。第二是能量智控技术——通过有效调节电力和冷却减少能量消耗,超强冷却风扇相对传统风扇降低了服务器空气流40%,能量消耗减少50%。最后是虚拟连接架构——大大减少了线缆数量,无需额外的交换接口管理。允许服务器额外增加、可替代、可移动,并无需管理员参与SAN和LAN的更改。

目前,惠普拥有完整的刀片服务器战略和产品线,既有支持2路或4路的ProLiant刀片服务器,也有采用安腾芯片的Integrity刀片系统,同时还有存储刀片、备份刀片等。同时,惠普BladeSystem c-Class刀片服务器系统已得到客户的广泛认可。根据IDC发布的2006年第四季度报告显示,惠普在刀片服务器的工厂营业额和出货量方面都占据了全球第一的位置。2007年第二季度,惠普刀片市场份额472%,领先竞争对手达15%,而且差距将会继续扩大。作为刀片市场的领导者,惠普BladeSystem c-Class刀片系统将成为数据中心的关键基础设施。

PARSEC体系架构和能量智控:绿色生产线的两大核心战略

作为数据中心的关键基础设施,绿色是刀片系统的重要发展趋势之一,也是数据中心节能的关键所在。HP BladeSystem c-Class刀片系统的创新设计中,绿色就是其关键创新技术之一,其独特的PARSEC体系架构和能量智控技术就是这条绿色生产线的两大关键技术。

HP PARSEC体系结构是惠普刀片系统针对绿色策略的另一创新。目前机架服务器都采用内部几个小型局部风扇布局,这样会造成成本较高、功率较大、散热能力差、消费功率和空间。HP PARSEC(Parallel Redundant Scalable Enterprise Cooling)体系结构是一种结合了局部与中心冷却特点的混合模式。机箱被分成四个区域,每个区域分别装有风扇,为该区域的刀片服务器提供直接的冷却服务,并为所有其它部件提供冷却服务。由于服务器刀片与存储刀片冷却标准不同,而冷却标准与机箱内部的基础元件相适应,甚至有时在多重冷却区内会出现不同类型的刀片。配合惠普创新的 Active Cool风扇,用户就可以轻松获得不同的冷却配置。惠普风扇设计支持热插拔,可通过添加或移除来调节气流,使之有效地通过整个系统,让冷却变得更加行之有效。

惠普的能量智控技术(Thermal Logic)是一种结合了惠普在供电、散热等方面的创新技术的系统级节能方法,该技术提供了嵌入式温度测量与控制能力,通过即时热量监控,可追踪每个机架中机箱的散热量、内外温度以及服务器耗电情况,这使用户能够及时了解并匹配系统运行需求,与此同时以手动或自动的方式设定温度阈值。或者自动开启冷却或调整冷却水平以应对并解决产生的热量,由此实现最为精确的供电及冷却控制能力。通过能量智控管理,客户可以动态地应用散热控制来优化性能、功耗和散热性能,以充分利用电源预算,确保灵活性。采用能量智控技术,同样电力可以供应的服务器数量增加一倍,与传统的机架堆叠式设备相比,效率提升30%。在每个机架插入更多服务器的同时,所耗费的供电及冷却量却保持不变或是减小,整体设计所需部件也将减少。

Active Cool风扇、DPS、电源调整仪:生产线的每个部件都要节能

惠普BladeSystem c-Class刀片系统作为一个“绿色生产线”,通过能量智控技术和PARSEC体系架构实现了“生产线”级的节能降耗,而这条生产线上各组成部件的技术创新则是绿色生产线的关键技术保障。例如,深具革新意义的Active Cool风扇,实现智能电源管理的ProLiant 电源调整仪以及动态功率调整等技术。

风扇是散热的关键部件。风扇设计是否越大越好?答案是否定的。市场上有的刀片服务器产品采用了较大型的集中散热风扇,不仅占用空间大、噪音大,冗余性较差、有漏气通道,而且存在过渡供应、需要较高的供电负荷。

惠普刀片服务器中采用了创新的Active Cool(主动散热)风扇。Active Cool风扇的设计理念源于飞行器技术,体积小巧,扇叶转速达136英里/小时,在产生强劲气流的同时比传统型风扇设计耗电量更低。同时具有高风量(CFM)、高风压、最佳噪音效果、最佳功耗等特点,仅使用100瓦电力便能够冷却16台刀片服务器。这项深具革新意义的风扇当前正在申请20项专利。Active Cool风扇配合PARSEC散热技术,可根据服务器的负载自动调节风扇的工作状态,并让最节能的气流和最有效的散热通道来冷却需要的部件,有效减少了冷却能量消耗,与传统散热风扇相比,功耗降低66%,数据中心能量消耗减少50%。

在供电方面,同传统的机架服务器独立供电的方式相比,惠普的刀片系统采用集中供电,通过创新的ProLiant 电源调整仪以及动态功率调整等技术实现了智能电源管理,根据电源状况有针对性地采取策略,大大节省了电能消耗。

ProLiant 电源调整仪(ProLiant Power Regulator)可实现服务器级、基于策略的电源管理。电源调整议可以根据CPU的应用情况为其提供电源,必要时,为CPU应用提供全功率,当不需要时则可使CPU处于节电模式,这使得服务器可以实现基于策略的电源管理。事实上可通过动态和静态两种方式来控制CPU的电源状态,即电源调整议即可以设置成连续低功耗的静态工作模式,也可以设置成根据CPU使用情况自动调整电源供应的动态模式。目前电源调整议可适用于AMD或英特尔的芯片,为方便使用,惠普可通过iLO高级接口显示处理器的使用数据并通过该窗口进行配置操作。电源调整议使服务器在不损失性能的前提下节省了功率和散热成本。

惠普创新的动态功率调整技术(DPS, Dynamic Power Saver)可以实时监测机箱内的电源消耗,并根据需求自动调节电源的供应。由于电源在高负荷下运转才能发挥最大效力,通过提供与用户整体基础设施要求相匹的配电量, DPS进一步改进了耗电状况。例如,当服务器对电源的需求较少时,可以只启动一对供电模块,而使其它供电模块处于stand by状态,而不是开启所有的供电单元,但每个供电单元都以较低的效率运行。当对电源需求增加时,可及时启动STAND BY的供电模块,使之满足供电需求。这样确保了供电系统总是保持最高效的工作状态,同时确保充足的电力供应,但通过较低的供电负荷实现电力的节约。通过动态功率调整技术,每年20个功率为0075/千瓦时的机箱约节省5545美元。

结束语

传统数据中心与日俱增的能源开销备受关注,在过去十年中服务器供电费用翻番的同时,冷却系统也为数据中心的基础设施建设带来了空前的压力。为了解决节节攀升的热量与能源消耗的难题,惠普公司创新性地推出了新一代绿色刀片系统BladeSystem c-Class和基于动态智能制冷技术DSC的绿色数据中心解决方案,通过惠普创新的PARSEC体系架构、能量智控技术(Thermal Logic)以及Active Cool风扇等在供电及散热等部件方面的创新技术来降低能耗,根据数据中心的大小不同,这些技术可为数据中心节能达到20 %至45%。

通过能耗监视工具,采集所有能源数据,并可通过通讯将数据上传 到动环监控系统,实现对整个数据机房的实时监控和有效管理

电脑服务器是一种高性能计算机,作为网络的节点,存储、处理网络上80%的数据、信息,因此也被称为网络的灵魂。做一个形象的比喻:电脑服务器就像是邮局的交换机,而微机、笔记本、PDA、手机等固定或移动的网络终端,就如散落在家庭、各种办公场所、公共场所等处的电话机。我们与外界日常的生活、工作中的电话交流、沟通,必须经过交换机,才能到达目标电话;同样如此,网络终端设备如家庭、企业中的微机上网,获取资讯,与外界沟通、娱乐等,也必须经过电脑服务器,因此也可以说是电脑服务器在“组织”和“领导”这些设备。

评估机柜服务器的功耗是数据中心设计师的最大挑战,没有绝对的答案,也没有简单的解决方案。

在设计服务器总功耗时,千瓦每机柜的方案远比瓦特每平方英尺来的有用,但这个方法还没有经过多年的验证。想得到良好的评估,不仅需要采用好方法,还取决于你对现有的运作以及可能的增长趋势有何种程度了解。

创建有代表性的设备分组作为容量单位,但不需要太精细。大型、独立而牢不可破的系统可能由单个容量单位组成,但在10,000平方英尺的数据中心里,普通

机柜容纳8到12个容量单位应该十分充裕。不需要为每个机柜开发单独的容量单位,因为IT设备也不可能完全按照理想设计来安装。意义在于开发切合实际、满

足通用需求的,可以推广到整个空间的设计方案。

不要高估能量消耗。IT设备铭牌编号上的备注毫无用处,它们可能导致离谱的高估。如果可能,就采用硬件制造商在线配置方案的结果。最终手段,采用服务器供应商电源额定功率值——一个300瓦电源的服务器绝对不可能达到800瓦的功耗。根据实际需求负载来判断供电系统符合。

双路设备为IT设备增加了硬件冗余,也共享了电力负载。如果一个双路服务器有两个300瓦电源,在能耗设计里,它依旧不会超出300瓦,因为每个电源都需要能够承载服务器的满负荷状态能耗(不包括电源效率计算)。

估算服务器功耗的另一种方法是采用行业标准。除非有承载高性能计算,大概可以判断分为三级密度:低密度机柜运行在35至5千瓦;中密度运行在5到10千

瓦;高密度运行在10至15千瓦。每个机架类型分配量级取决于你的运营策略。一般来说,数据中心承载着大约50%的低密度机柜,35%的中等密度机柜以及

15%的高密度机柜。

当你采用这些方法后,需要做个全面检查,将现有的不间断电源供电总量除以现有的机柜数,得到一个平均值。然后将你计划部署的机柜数与总估算的部署服务器用电负荷总数相除。要记得,很少服务器部署能够真正接近设计师的初始估计负载最大值。

如果你的预测值大于实际平均值15倍,就需要进一步查看这些数字了。如果你预期密度将显著增加,那么这样的预测没有问题,比如新业务需求或者增加虚拟化引入刀片服务器等。但如果没有理由来证明密度增长的预测,重新审视设计吧。

名思义,服务器电源就是指使用在服务器上的电源(POWER),它和PC(个人电脑)电源一样,都是一种开关电源。

服务器电源按照标准可以分为ATX电源和SSI电源两种。ATX标准使用较为普遍,主要用于台式机、工作站和低端服务器;而SSI标准是随着服务器技术的发展而产生的,适用于各种档次的服务器。

ATX标准

ATX标准是Intel在1997年推出的一个规范,输出功率一般在125瓦~350瓦之间。ATX电源通常采用20Pin(20针)的双排长方形插座给主板供电。随着Intel推出Pentium4处理器,电源规范也由ATX修改为ATX12V,和ATX电源相比,ATX12V电源主要增加了一个4Pin的12V电源输出端,以便更好地满足Pentium4的供电要求(2GHz主频的P4功耗达到524瓦)。

SSI标准

SSI(Server System Infrastructure)规范是Intel联合一些主要的IA架构服务器生产商推出的新型服务器电源规范,SSI规范的推出是为了规范服务器电源技术,降低开发成本,延长服务器的使用寿命而制定的,主要包括服务器电源规格、背板系统规格、服务器机箱系统规格和散热系统规格。

根据使用的环境和规模的不同,SSI规范又可以分为TPS、EPS、MPS、DPS四种子规范。

EPS规范(Entry Power Supply Specification):主要为单电源供电的中低端服务器设计,设计中秉承了ATX电源的基本规格,但在电性能指标上存在一些差异。它适用于额定功率在300瓦~400瓦的电源,独立使用,不用于冗余方式。后来该规范发展到EPS12V(Version20),适用的额定功率达到450瓦~650瓦,它和ATX12V电源最直观的区别在于提供了24Pin的主板电源接口和8Pin的CPU电源接口。联想万全2200C/2400C就采用了EPS标准的电源,输出功率为300W,该电源输入电压宽范围为90~264V,功率因数大于095,由于选用了高规格的元器件,它的平均无故障时间(MTBF)大于150000小时。

TPS规范(Thin Power Supply Specification):适用于180瓦~275瓦的系统,具有PFC(功率因数校正)、自动负载电流分配功能。电源系统最多可以实现4组电源并联冗余工作,由系统提供风扇散热。TPS电源对热插拔和电流均衡分配要求较高,它可用于N+1冗余工作,有冗余保护功能。

MPS规范(Midrange Power Supply Specification):这种电源被定义为针对4路以上CPU的高端服务器系统。MPS电源适用于额定功率在375瓦~450瓦的电源,可单独使用,也可冗余使用。它具有PFC、自动负载电流分配等功能。采用这种电源元件电压、电流规格设计和半导体、电容、电感等器件工作温度的设计裕量超过15%。在环境温度25度以上、最大负载、冗余工作方式下MTBF可到150000小时。

DPS规范(Distributed Power Supply Specification):电源是单48V直流电压输出的供电系统,提供的最小功率为800瓦,输出为+48V和+12VSB。DPS电源采用二次供电方式,输入交流电经过AC-DC转换电路后输出48V直流电,48VDC再经过DC-DC转换电路输出负载需要的+5V、+12V、+33V直流电。制定这一规范主要是为简化电信用户的供电方式,便于机房供电,使IA服务器电源与电信所采用的电源系统接轨。

虽然目前服务器电源存在ATX和SSI两种标准,但是随着SSI标准的更加规范化,SSI规范更能适合服务器的发展,以后的服务器电源也必将采用SSI规范。SSI规范有利于推动IA服务器的发展,将来可支持的CPU主频会越来越高,功耗将越来越大,硬盘容量和转速等也越来越大,可外挂高速设备越来越多。为了减少发热和节能,未来SSI服务器电源将朝着低压化、大功率化、高密度、高效率、分布式化等方向发展。服务器采用的配件相当多,支持的CPU可以达到4路甚至更多,挂载的硬盘能够达到4~10块不等,内存容量也可以扩展到10GB之多,这些配件都是消耗能量的大户,比如中高端工业标准服务器采用的是Xeon(至强)处理器,其功耗已经达到80多瓦特(W),而每块SCSI硬盘消耗的功率也在10瓦特(W)以上,所以服务器系统所需要的功率远远高于PC,一般PC只要200瓦电源就足够了,而服务器则需要300瓦以上直至上千瓦的大功率电源。在实际选择中,不同的应用对服务器电源的要求不同,像电信、证券和金融这样的行业,强调数据的安全性和系统的稳定性,因而服务器电源要具有很高的可靠性。目前高端服务器多采用冗余电源技术,它具有均流、故障切换等功能,可以有效避免电源故障对系统的影响,实现24×7的不停顿运行。冗余电源较为常见的是N+1冗余,可以保证一个电源发生故障的情况下系统不会瘫痪(同时出现两个以上电源故障的概率非常小)。冗余电源通常和热插拔技术配合,即热插拔冗余电源,它可以在系统运行时拔下出现故障的电源并换上一个完好的电源,从而大大提高了服务器系统的稳定性和可靠性。

在购买服务器时要注意一下本机电源,起码应该关注如下两点:

1电源的品质,包括输出功率、效率、纹波噪音、时序、保护电路等指标是否达标或者满足需要;

2注意电源生产厂家的信誉、规模和支持力度,信誉比较好、规模较大、支持及时的厂家,比如台达、全汉、新巨等等,一般质量较可靠,在性价比方面也会好很多。选购时具体可参考以下指标:

功率的选择:市场上常见的是300W和400W两种,对于个人用户来说选用300W的已经够用,而对于服务器来说,因为要面临升级以及不断增加的磁盘阵列,就需要更大的功率支持它,为此使用400W电源应该是比较合适的。

安规认证:只有严格地考虑到产品品质、消费者的安全、健康等因素,对产品按不同的标准进行严格的检测,才能通过国际合格认证,安规认证是我们选购电源的重要指标,这应该是我们选择电源时最重要的一点。因为它关系着我们的安全和健康。不好的电源噪声很大,对人的身体有影响。在这方面省下几百块钱是得不偿失的。现在的电源都要求通过3C认证。(3C认证是"中国国家强制性产品认证(China Compulsory Cerlification)"的简称。实际上是将CCEE(中国电子电工产品安全认证)、CCIB(中国进口电子产品安全认证)、EMC(电磁兼容性认证)三证合一,在2003年5月1日后强制执行3C认证。)

电压保持时间:对于这个参数主要是考虑UPS的问题,一般的电源都能满足需要,但是如果UPS质量不可靠的话,最好选一个电压保持时间长的电源。

冗余电源选择:这主要针对对系统稳定性要求比较高的服务器,冗余一般有二重冗余和三重冗余。

对主板的支持:这个因素看起来不重要,在家用PC也很少见,但在服务器中却存在这种现象,因此在选购时也要注意。

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » idrac能看到服务器能耗吗?

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情