做深度学习的服务器需要哪些配置?

做深度学习的服务器需要哪些配置?,第1张

主要是看运行什么软件和数据量,训练数值大小,这里要强调一下,数值大小和数据量是不一样的。

深度学习服务器核心部件还是CPU、硬盘、内存、GPU,特别是很多深度学习依靠GPU的大规模数据处理能力,这就要强调CPU的计算能力和数量,同时不同的数据对GPU的显存要求也不一样。

当下大部分都在用RTX3090做深度学习,最新RTX4090已经上市,单精度计算能力是RTX3090的2倍,这两个GPU都是24G显存;像A100强调双精度计算能力,显存有40G和80G两个版本,而A6000单精度计算能和RTX3090差不多,显存是48G,可以参考选择。

当然,最重要的还是口袋里的银子,A6000市场价大概是RTX的2倍还要多,A100最近更是要上十万了,估计也快买不到了,价高缺货;RTX3090/4090的价位低,性价比高,这也是为什么大部分人都选择它们做深度学习了,这是市场的选择。

Windows2008R2支持海光。海光是Microsoft的一种虚拟化技术,可以将一台物理服务器上的多个操作系统实例分割成多个虚拟服务器,每个虚拟服务器有自己的硬件资源和操作系统,可以实现资源的有效利用和管理。海光的优势在于可以有效地降低物理服务器的成本,提高资源的利用率,而且安全可靠。

不可以出口。海光拿到的一代Zen IPC 9分+/Ghz的内核,如果完不成新架构升级迭代,只靠工艺提升,拉高频率,也是没有竞争力的。

海光芯片与AMD协议,只能卖服务器市场,不能卖PC市场,还不能出口。服务器市场主要跑的Linux系统,说x86有生态优势,都是虚假的谎言,大家早点认清现实。

海光股票上市就是终点,龙芯股票上市才是新的起点。

中国芯片产业不断的砥砺前行中,涌现出了以龙芯、申威、海光、兆芯、华为、飞腾为代表的诸多企业。他们现今的发展态势各不相同:

龙芯:在引进MIPS指令集后,研发了LoongISA 指令系统和LoongArch架构,众多行业领域均有应用。近年来,龙芯在生态和性能两方面持续发力,不断缩短与主流产品的代差,目前在特殊领域应用广泛。

申威:以ALPHA指令集自研出了SW-64指令集,自主迭代顺利,重点用于军队、党政等高机密的关键行业,最近也传出新闻,称基于申威产品推出了人工智能服务器,可以看出申威也在不断扩展产品阵容。

华为鲲鹏:华为鲲鹏采用了ARM架构进行自研,但由于美国制裁,且被ARM断供,导致其难以获取更先进的v9,也无法基于v8实现自我迭代。但华为依旧积极完善生态、构建体系,希望华为能够凭借其强劲的研发能力,重建自身优势。

飞腾:构建PKS体系优势,但迭代较困难

同样采用ARM架构,其主要发力于自创的PKS体系,规划建设极致安全的芯片体系。但同样被ARM断供,后续产品研发迭代成为困难。

海光:海光永久拥有x86指令集授权,基于广阔的迭代空间,持续推进自身产品体系的自主迭代。海光3号,性能上达到国际同类高端水准,更凭借高兼容性和低迁移成本,被电信、金融、互联网等领域广泛采用。但面对AMD与英特尔等国际巨头持续带来的竞争压力,海光在未来的发展中仍需深耕技术研发,全力以赴提升自身竞争优势。

兆芯:兆芯采用了x86架构,技术从台湾威盛引进。依托X86宽阔的市场前景,近年来在性能和功能性领域实现了多项突破。虽然有授权到期的隐患,但就近期宣布成立股份公司,为上市进行准备的态势来看,未来前景依旧可期。

随着申威、飞腾、海光等国产六大芯片厂商在技术领域的持续探索与突破,相信国产国芯片产业会发展得越来越好。

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 做深度学习的服务器需要哪些配置?

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情