AMD有没有服务器CPU?
AMD 是有服务器 CPU 的;是 AMD 皓龙 X 处理器;具体型号有: x2150 , 300, 400 ,500 可以参考如下AMD网站的介绍。
http://wwwamdcom/zh-cn/products/server/opteron-x
海拔高度
工作时:最高10,000 英尺(3000 米)
非工作时:最高15,000 英尺(4500 米)
温度
工作时:41 到95°F(5 到35℃);
海拔高于5,000 英尺时,最高温度降低速率为18°F(1℃)/1000 英尺(300 米)
非工作时:-40 到+158°F(-40 到+70℃)
最高温度变化速率:每小时36°F(20℃)
湿度
工作时:15% 到80% 相对非冷凝;最大湿球温度= 79°F(26°C)
惠普已经通过动态智能冷却技术解决了高温问题,因此,使用AMD处理器的惠普服务器时,不需要特别注意最高温度的控制。
Active Cool风扇技术拥有高风量(CFM)、高风压、最佳噪音效果、最佳功耗等特点,可仅使用100瓦电力冷却16台刀片服务器。其设计理念基于飞行器技术,扇叶转速达136英里/小时,在产生强劲气流的同时比传统风扇设计耗电量更低,在该技术正在申请20项专利,能够轻松扩展以适应未来要求最苛刻的产品蓝图要求。
惠普推动绿色刀片策略 打造绿色数据中心
随着国家政策对节能降耗要求的提高,节能降耗正成为国家、全社会关注的重点。而IT能耗在所有的电力使用当中所占比重的不断上升,已经使其成为社会提倡节能降耗主要领域之一。做为全球领先的IT公司和一家具有强烈社会责任感的企业,惠普公司积极倡导“绿色IT”的理念,并加大研发,推出了一系列的针对绿色IT的创新技术和产品。
10月26日,惠普公司在香山饭店举办了“绿色刀片”的研讨会,介绍了惠普公司新一代数据中心以及新一代刀片系统BladeSystem c-Class在供电散热等方面的绿色创新技术以及环保节能优势,并推出了针对绿色数据中心的完整解决方案。
长期以来,更强大的数据中心处理能力一直是我们追求的目标。但在能源开销与日俱增的今天,处理能力发展的另一面是需要消耗更多的资源。而且随着服务器密度的不断增大,供电需求也在相应增加,并由此产生了更多的热量。在过去的十年中,服务器供电密度平均增长了十倍。据IDC预测,到2008年IT采购成本将与能源成本持平。另一方面,数据中心的能耗中,冷却又占了能耗的60%到70%。因此,随着能源价格的节节攀升,数据中心的供电和冷却问题,已经成为所有的数据中心都无法回避的问题。
惠普公司十几年来一直致力于节能降耗技术的研究,并致力于三个层面的创新:一是数据中心层面环境级的节能技术;二是针对服务器、存储等IT产品在系统层面的绿色设计;三是对关键节能部件的研发,如供电、制冷、风扇等方面的技术创新。目前,来自惠普实验室的这些创新技术正在引领业界的绿色趋势。
针对数据中心环境层面,惠普推出了全新的动态智能冷却系统帮助客户构建新一代绿色数据中心或对原有数据中心进行改造;在设备层面,惠普的新一代绿色刀片服务器系统以能量智控(Thermal Logic)技术以及PARSEC体系架构等方面的创新成为未来数据中心节能的最关键基础设施;同时这些创新技术体现在一些关键节能部件上,如 Active Cool(主动散热)风扇、动态功率调整技术(DPS, Dynamic Power Saver)等。惠普公司的绿色创新将帮助客户通过提高能源效率来降低运营成本。
HP DSC精确制冷 实现绿色数据中心
传统数据中心机房采用的是平均制冷设计模式,但目前随着机架式服务器以及刀片服务器的出现和普及,数据中心出现了高密度服务器与低密度混合的模式,由于服务器的密度不均衡,因而产生的热量也不均衡,传统数据中心的平均制冷方法已经很难满足需求。造成目前数据中心的两个现状:一是目前85%以上的机房存在过度制冷问题;二在数据中心的供电中,只有1/3用在IT设备上,而制冷费用占到总供电的 2/3 。因此降低制冷能耗是数据中心节能的关键所在。
针对传统数据中心机房的平均制冷弊端,惠普推出了基于动态智能制冷技术的全新解决方案—— “惠普动态智能冷却系统”(DSC, Dynamic Smart Cooling)。动态智能冷却技术的目标是通过精确制冷,提高制冷效率。DSC可根据服务器运行负荷动态调控冷却系统来降低能耗,根据数据中心的大小不同,节能可达到20%至45%。
DSC结合了惠普在电源与冷却方面的现有创新技术,如惠普刀片服务器系统 c-Class架构的重要组件HP Thermal Logic等技术,通过在服务器机架上安装了很多与数据中心相连的热能探测器,可以随时把服务器的温度变化信息传递到中央监控系统。当探测器传递一个服务器温度升高的信息时,中央监控系统就会发出指令给最近的几台冷却设备,加大功率制冷来降低那台服务器的温度。当服务器的温度下降后,中央监控系统会根据探测器传递过来的新信息,发出指令给附近的冷却设备减小功率。惠普的实验数据显示,在惠普实验室的同一数据中心不采用DSC技术,冷却需要117千瓦,而采用DSC系统只需要72千瓦。
惠普刀片系统:绿色数据中心的关键生产线
如果把数据中心看作是一个“IT工厂”,那么“IT工厂”节能降耗不仅要通过DSC等技术实现“工厂级”环境方面的节能,最重要的是其中每一条“生产线”的节能降耗,而数据中心的生产线就是服务器、存储等IT设备。目前刀片系统以节约空间、便于集中管理、易于扩展和提供不间断的服务,满足了新一代数据中心对服务器的新要求,正成为未来数据中心的重要“生产线”。因此刀片系统本身的节能环保技术是未来数据中心节能降耗的关键所在。
惠普公司新一代绿色刀片系统HP BladeSystem c-Class基于工业标准的模块化设计,它不仅仅集成了刀片服务器和刀片存储,还集成了数据中心的众多要素如网络、电源/冷却和管理等,即把计算、存储、网络、电源/冷却和管理都整合到一起。同时在创新的BladeSystem c-Class刀片系统中,还充分考虑了现代数据中心基础设施对电源、冷却、连接、冗余、安全、计算以及存储等方面的需求。
在标准化的硬件平台基础上,惠普刀片系统的三大关键技术,更令竞争对手望尘莫及。首先是惠普洞察管理技术——它通过单一的控制台实现了物理和虚拟服务器、存储、网络、电源以及冷却系统的统一和自动化管理,使管理效率提升了10倍,管理员设备配比达到了1:200。第二是能量智控技术——通过有效调节电力和冷却减少能量消耗,超强冷却风扇相对传统风扇降低了服务器空气流40%,能量消耗减少 50%。最后是虚拟连接架构——大大减少了线缆数量,无需额外的交换接口管理。允许服务器额外增加、可替代、可移动,并无需管理员参与SAN和LAN的更改。
目前,惠普拥有完整的刀片服务器战略和产品线,既有支持2路或4路的ProLiant刀片服务器,也有采用安腾芯片的Integrity刀片系统,同时还有存储刀片、备份刀片等。同时,惠普BladeSystem c-Class刀片服务器系统已得到客户的广泛认可。根据IDC发布的2006年第四季度报告显示,惠普在刀片服务器的工厂营业额和出货量方面都占据了全球第一的位置。2007年第二季度,惠普刀片市场份额472%,领先竞争对手达15%,而且差距将会继续扩大。作为刀片市场的领导者,惠普 BladeSystem c-Class刀片系统将成为数据中心的关键基础设施。
PARSEC体系架构和能量智控:绿色生产线的两大核心战略
作为数据中心的关键基础设施,绿色是刀片系统的重要发展趋势之一,也是数据中心节能的关键所在。HP BladeSystem c-Class刀片系统的创新设计中,绿色就是其关键创新技术之一,其独特的PARSEC体系架构和能量智控技术就是这条绿色生产线的两大关键技术。
HP PARSEC体系结构是惠普刀片系统针对绿色策略的另一创新。目前机架服务器都采用内部几个小型局部风扇布局,这样会造成成本较高、功率较大、散热能力差、消费功率和空间。HP PARSEC(Parallel Redundant Scalable Enterprise Cooling)体系结构是一种结合了局部与中心冷却特点的混合模式。机箱被分成四个区域,每个区域分别装有风扇,为该区域的刀片服务器提供直接的冷却服务,并为所有其它部件提供冷却服务。由于服务器刀片与存储刀片冷却标准不同,而冷却标准与机箱内部的基础元件相适应,甚至有时在多重冷却区内会出现不同类型的刀片。配合惠普创新的 Active Cool风扇,用户就可以轻松获得不同的冷却配置。惠普风扇设计支持热插拔,可通过添加或移除来调节气流,使之有效地通过整个系统,让冷却变得更加行之有效。
惠普的能量智控技术(Thermal Logic)是一种结合了惠普在供电、散热等方面的创新技术的系统级节能方法,该技术提供了嵌入式温度测量与控制能力,通过即时热量监控,可追踪每个机架中机箱的散热量、内外温度以及服务器耗电情况,这使用户能够及时了解并匹配系统运行需求,与此同时以手动或自动的方式设定温度阈值。或者自动开启冷却或调整冷却水平以应对并解决产生的热量,由此实现最为精确的供电及冷却控制能力。通过能量智控管理,客户可以动态地应用散热控制来优化性能、功耗和散热性能,以充分利用电源预算,确保灵活性。采用能量智控技术,同样电力可以供应的服务器数量增加一倍,与传统的机架堆叠式设备相比,效率提升30%。在每个机架插入更多服务器的同时,所耗费的供电及冷却量却保持不变或是减小,整体设计所需部件也将减少。
Active Cool风扇、DPS、电源调整仪:生产线的每个部件都要节能
惠普BladeSystem c-Class刀片系统作为一个“绿色生产线”,通过能量智控技术和PARSEC体系架构实现了“生产线”级的节能降耗,而这条生产线上各组成部件的技术创新则是绿色生产线的关键技术保障。例如,深具革新意义的Active Cool风扇,实现智能电源管理的ProLiant 电源调整仪以及动态功率调整等技术。
风扇是散热的关键部件。风扇设计是否越大越好?答案是否定的。市场上有的刀片服务器产品采用了较大型的集中散热风扇,不仅占用空间大、噪音大,冗余性较差、有漏气通道,而且存在过渡供应、需要较高的供电负荷。
惠普刀片服务器中采用了创新的Active Cool(主动散热)风扇。Active Cool风扇的设计理念源于飞行器技术,体积小巧,扇叶转速达136英里/ 小时,在产生强劲气流的同时比传统型风扇设计耗电量更低。同时具有高风量(CFM)、高风压、最佳噪音效果、最佳功耗等特点,仅使用100瓦电力便能够冷却16台刀片服务器。这项深具革新意义的风扇当前正在申请20项专利。Active Cool风扇配合PARSEC散热技术,可根据服务器的负载自动调节风扇的工作状态,并让最节能的气流和最有效的散热通道来冷却需要的部件,有效减少了冷却能量消耗,与传统散热风扇相比,功耗降低66%,数据中心能量消耗减少50%。
在供电方面,同传统的机架服务器独立供电的方式相比,惠普的刀片系统采用集中供电,通过创新的ProLiant 电源调整仪以及动态功率调整等技术实现了智能电源管理,根据电源状况有针对性地采取策略,大大节省了电能消耗。
ProLiant 电源调整仪(ProLiant Power Regulator)可实现服务器级、基于策略的电源管理。电源调整议可以根据CPU的应用情况为其提供电源,必要时,为CPU应用提供全功率,当不需要时则可使CPU处于节电模式,这使得服务器可以实现基于策略的电源管理。事实上可通过动态和静态两种方式来控制CPU的电源状态,即电源调整议即可以设置成连续低功耗的静态工作模式,也可以设置成根据CPU使用情况自动调整电源供应的动态模式。目前电源调整议可适用于AMD或英特尔的芯片,为方便使用,惠普可通过iLO高级接口显示处理器的使用数据并通过该窗口进行配置操作。电源调整议使服务器在不损失性能的前提下节省了功率和散热成本。
惠普创新的动态功率调整技术(DPS, Dynamic Power Saver)可以实时监测机箱内的电源消耗,并根据需求自动调节电源的供应。由于电源在高负荷下运转才能发挥最大效力,通过提供与用户整体基础设施要求相匹的配电量, DPS进一步改进了耗电状况。例如,当服务器对电源的需求较少时,可以只启动一对供电模块,而使其它供电模块处于stand by状态,而不是开启所有的供电单元,但每个供电单元都以较低的效率运行。当对电源需求增加时,可及时启动STAND BY的供电模块,使之满足供电需求。这样确保了供电系统总是保持最高效的工作状态,同时确保充足的电力供应,但通过较低的供电负荷实现电力的节约。通过动态功率调整技术,每年20个功率为0075/千瓦时的机箱约节省5545美元。
传统数据中心与日俱增的能源开销备受关注,在过去十年中服务器供电费用翻番的同时,冷却系统也为数据中心的基础设施建设带来了空前的压力。为了解决节节攀升的热量与能源消耗的难题,惠普公司创新性地推出了新一代绿色刀片系统 BladeSystem c-Class和基于动态智能制冷技术DSC的绿色数据中心解决方案,通过惠普创新的PARSEC体系架构、能量智控技术(Thermal Logic)以及Active Cool风扇等在供电及散热等部件方面的创新技术来降低能耗,根据数据中心的大小不同,这些技术可为数据中心节能达到20%至45%。
无法连接到amd服务器并检查更新操作步骤有5步。
1、右键选中我的电脑,选择管理。
2、选择设备管理器,在最下方的列表中,便会看到显示卡的字样了。这个时候,需要使用鼠标的右键选中,并且点击更新驱动程序。
3、选择硬件更新向导,点击安装。
4、选择下载好的显卡驱动程序,选择下一步,显卡驱动便开始自动安装。
5、等安装成功的时候,就会出现一个对话框,名字为硬件更新向导,点击完成即可。
1、AMD的intel的都可以用作服务器,他们都有专门的系列CPU用作服务器CPU
2、但看你的问题你也就是要配一台稳定的兼容机用当服务器用,而不是服务器
3、因为是服务器,服务器最典型的就是长时间稳定运行
4、根据你的价格要求,配置如下
5、CPU,Intel QX9450
主板,七彩虹 Cp45k
显卡,因为是服务器,随便什么显卡都可以,前提是插得上去哈不要杂牌
内存,红色威龙DDRII4G 资源不够加到8G
硬盘,企业级硬盘 到淘宝去搜索即可
电源嘛,你搞个好些的就行,实价超过200的,80plus 也就是转换效率
超过80%的,24小时运行,半年电源的钱就赚回来了
运行的时候保证散热,此套系统绝对够用,
甚至你可以安装ESXi 免费的 如果安装ESXi再加一个网卡
远程控制,这样的方式甚至更好些,资源可以调配给你测试的
6、再具体的根据你的问题也不好作回答了,
如果说英伟达的Grace CPU超级芯片的架构是CPU+GPU是巧合,那么英特尔和AMD推出的Falcon Shores XPU芯片、Instinct MI300芯片同样是CPU+GPU结构时,CPU+GPU一体的架构就很难称之为巧合了。
更为“碰巧”的是,以上三种芯片其都是用于数据中心的场景,这就意味着在未来两年内,AMD、英伟达和英特尔都将拥有混合CPU+GPU芯片进入数据中心市场。
可以说CPU+GPU的形式已经成为未来芯片设计的趋势。
英特尔推出XPU
英特尔宣布了一款特殊的融合型处理器“Falcon Shores”,官方称之为XPU。其核心是一个新的处理器架构,将英特尔的x86 CPU和Xe GPU硬件置入同一颗Xeon芯片中。
Falcon Shores芯片基于区块(Tile)设计,具备非常高的伸缩性、灵活性,可以更好地满足HPC、AI应用需求。
按照英特尔给出的数字,对比当今水平,Falcon Shores的能耗比提升超过5倍,x86计算密度提升超过5倍,内存容量与密度提升超过5倍。
Falcon Shores芯片将在2024年推出。
AMD推出APU
在数据中心领域,AMD同样展示其野心。
APU是AMD传统上用于集成显卡的客户端CPU的“加速处理单元”命名法。自2006年Opteron CPU的鼎盛时期以来,AMD一直梦想着使用APU,并于2010年开始推出第一款用于PC的APU。随后在索尼Play Station4和5以及微软Xbox XS中推出了定制APU系列 游戏 机,也推出了一些Opteron APU——2013年的X2100和2017年的X3000。
最近,AMD公布的路线图中显示,其将在2023年推出Instinct MI300芯片,这是AMD推出的第一款百亿亿次APU,AMD将其称为“世界上第一个数据中心APU”。
而这个APU是一种将CPU和GPU内核组合到一个封装中的芯片,仔细来说是将基于Zen4的Epyc CPU与使用其全新CDNA3架构的GPU相结合。
AMD表示Instinct MI300预计将比其Instinct MI250X提供超过8倍的AI训练性能提升,与支持Instinct MI200系列的CDNA2 GPU架构相比,用于Instinct MI300的CDNA3架构将为AI工作负载提供超过5倍的性能功耗比提升。
Instinct MI300将于2023年问世。
英伟达Grace超级芯片
一直专注于GPU设计的英伟达,在去年宣布进军基于Arm架构的CPU时引发了一阵轰动。在今年3月,英伟达推出解决HPC和大规模人工智能应用程序的Grace Hopper超级芯片。这款芯片将NVIDIA Hopper GPU与Grace CPU通过NVLink-C2C结合在一个集成模块中。
CPU+GPU的Grace Hopper核心数减半,LPDDR5X内存也只有512GB,但多了显卡的80GBHBM3内存,总带宽可达35TB/s,代价是功耗1000W,每个机架容纳42个节点。
英伟达同样承诺在2023年上半年推出其超级芯片。
从推出的时间节点来看,英特尔Falcon Shores芯片、AMD Instinct MI300、英伟达Grace Hopper超级芯片分别在2024年、2023年、2023年上半年推出。
CPU+GPU的形式,为什么引起了三大巨头的兴趣,纷纷将其布局于数据中心?
首先,在数字经济时代,算力正在成为一种新的生产力,广泛融合到 社会 生产生活的各个方面。数据中心是算力的物理承载,是数字化发展的关键基础设施。全球数据中心新增稳定,2021年全球数据中戏市场规模超过679亿美元,较2020年增长98%。因此,具有巨大市场的数据中心早已被 科技 巨头紧盯。
其次,数据中心会收集大量的数据,因此需要搭建于数据中心的芯片具有极大算力,将CPU与GPU组合可以提高算力。英特尔高级副总裁兼加速计算系统和图形(AXG)集团总经理Raja Koduri的演讲中提及,如果想要成功获得HPC市场,就需要芯片能够处理海量的数据集。尽管,GPU具有强大的计算能力,能够同时并行工作数百个的内核,但如今独立的GPU仍然有一大缺陷,就是大的数据集无法轻松放入独立GPU内存里,需要耗费时间等待显存数据缓慢刷新。
特别是内存问题,将CPU与GPU放入同一架构,能够消除冗余内存副本来改善问题,处理器不再需要将数据复制到自己的专用内存池来访问/更改该数据。统一内存池还意味着不需要第二个内存芯片池,即连接到CPU的DRAM。例如,Instinct MI300将把CDNA3 GPU小芯片和Zen4 CPU小芯片组合到一个处理器封装中,这两个处理器池将共享封装HBM内存。
英伟达官方表示,使用NVLink-C2C互连,Grace CPU将数据传输到Hopper GPU的速度比传统CPU快15倍;但对于数据集规模超大的场景来说,即使有像NVLink和AMD的Infinity Fabric这样的高速接口,由于HPC级处理器操作数据的速度非常快,在CPU和GPU之间交换数据的延迟和带宽代价仍然相当高昂。因此如果能尽可能缩短这一链路的物理距离,就可以节约很多能源并提升性能。
AMD表示,与使用分立CPU和GPU的实现相比,该架构的设计将允许APU使用更低的功耗;英特尔同样表示,其Falcon Shores芯片将显着提高带宽、每瓦性能、计算密度和内存容量。
整合多个独立组件往往会带来很多长期收益,但并不只是将CPU与GPU简单整合到一颗芯片中。英特尔、英伟达及AMD的GPU+CPU均是选择了Chiplet方式。
传统上,为了开发复杂的 IC 产品,供应商设计了一种将所有功能集成在同一芯片上的芯片。在随后的每一代中,每个芯片的功能数量都急剧增加。在最新的 7nm 和 5nm 节点上,成本和复杂性飙升。
而使用Chiplet设计,将具有不同功能和工艺节点的模块化芯片或小芯片封装在同一芯片,芯片客户可以选择这些小芯片中的任何一个,并将它们组装在一个先进的封装中,从而产生一种新的、复杂的芯片设计,作为片上系统 (SoC) 的替代品。
正是由于小芯片的特性,三家巨头在自己发展多芯片互连的同时,还展开了定制服务。
英特尔在发布Falcon Shores时介绍,其架构将使用Chiplet方法,采用不同制造工艺制造的多个芯片和不同的处理器模块可以紧密地塞在一个芯片封装中。这使得英特尔可以在其可以放入其芯片的CPU、GPU、I/O、内存类型、电源管理和其他电路类型上进行更高级别的定制。
最特别的是,Falcon Shores可以按需配置不同区块模块,尤其是x86CPU核心、XeGPU核心,数量和比例都非常灵活,就看做什么用了。
目前,英特尔已开放其 x86 架构进行许可,并制定了Chiplet策略,允许客户将 Arm 和 RISC-V 内核放在一个封装中。
最近,AMD同样打开了定制的大门。AMD首席技术官Mark Papermaster在分析师日会议上表示:“我们专注于让芯片更容易且更灵活实现。”
AMD允许客户在紧凑的芯片封装中实现多个芯粒(也称为chiplet或compute tiles )。AMD已经在使用tiles,但现在AMD允许第三方制造加速器或其他芯片,以将其与x86 CPU和GPU一起包含在其2D或3D封装中。
AMD的定制芯片战略将围绕新的Infinity Architecture 40展开,它是芯片封装中芯粒的互连。专有的Infinity结构将与CXL 20互连兼容。
Infinity互连还将支持UCIe(Universal Chiplet Interconnect Express)以连接封装中的chiplet。UCIe已经得到英特尔、AMD、Arm、谷歌、Meta等公司的支持。
总体而言,AMD的服务器GPU轨迹与英特尔、英伟达非常相似。这三家公司都在向CPU+GPU组合产品方向发展,英伟达的GraceHopper(Grace+H100)、英特尔的Falcon Shores XPU(混合和匹配CPU+GPU),现在MI300在单个封装上同时使用CPU和GPU小芯片。在所有这三种情况下,这些技术旨在将最好的CPU和最好的GPU结合起来,用于不完全受两者约束的工作负载。
市场研究公司Counterpoint Research的研究分析师Akshara Bassi表示:“随着芯片面积变得越来越大以及晶圆成品率问题越来越重要,多芯片模块封装设计能够实现比单芯片设计更佳的功耗和性能表现。”
Chiplet将继续存在,但就目前而言,该领域是一个孤岛。AMD、苹果、英特尔和英伟达正在将自研的互连设计方案应用于特定的封装技术中。
2018 年,英特尔将 EMIB(嵌入式多硅片)技术升级为逻辑晶圆 3D 堆叠技术。2019 年,英特尔推出 Co-EMIB 技术,能够将两个或多个 Foveros 芯片互连。
AMD率先提出Chiplet模式,在2019年全面采用小芯片技术获得了技术优势。Lisa Su 在演讲时表达了未来的规划,“我们与台积电就他们的 3D 结构密切合作,将小芯片封装与芯片堆叠相结合,为未来的高性能计算产品创建 3D 小芯片架构。”
今年 3 月 2 日,英特尔、AMD、Arm、高通、台积电、三星、日月光、谷歌云、Meta、微软等十大巨头宣布成立 Chiplet 标准联盟,推出了通用小芯片互连标准 (UCIe),希望将行业聚合起来。
迄今为止,只有少数芯片巨头开发和制造了基于Chiplet的设计。由于先进节点开发芯片的成本不断上升,业界比以往任何时候都更需要Chiplet。在多芯片潮流下,下一代顶级芯片必然也将是多芯片设计。
0条评论