虚拟化服务器性能如何评估?

虚拟化服务器性能如何评估?,第1张

  如果只有两个Guest OS,以规格来看,瓶颈应不会在CPU性能上,反而是硬盘I/O跟网络速度的性能比较有可能,而内存数量及使用规划也要注意。另外如果是无法长期停机的机器,需要评估备份或后备规划,以及后备系统版权授权规定及费用。

  关键瓶颈是磁盘I/O,并非CPU。需要跟进的事情是﹕

  1 在旧主机上面,先监测出跑报表所需要的IOPS有多少?并精算VM硬盘。

  2 如果文档复制会占用主机所有的IOPS,这种工作不适合跟其他VM共享磁盘。

  所以,如果要拆开,主因并不是CPU不够用(跑报表跟文档复制,根本用不到多少CPU资源),而是磁盘的I/O资源会被文档复制全部占用,造成其他的VM排队等候。

  在虚拟化软件的选择上,如果是VMware ESX(i),可以透过vSphere Client或vCenter新增Resource pool,来设定Guest OS的CPU资源。

  可以测试一下:报表跑数据大量择取的时候,使用“Windows工作管理员/处理程序”查看CPU与内存以及I/O的状态。

  虽然将它们放在同一台主机,但是文档服务给它一个完全独立的磁盘子系统,不跟其他VM共用,那这样就不会有以上的顾虑,还是可以放在一起。

  例如,你可以买一台SAN给文档服务的VM专用,但另买一台SAN给其他的VM共用,最后,数据库的问题还是要回到IOPS上来。我遇过80%以上想做虚拟化的新手,都不知道原本旧主机上数据库的瓶颈是在Disk I/O。一般说来,跑ERP报表吃掉1,000~3,000 IOPS是很常见的状况,这代表RAID至少要5到15颗以上来组合,才足够应付这样的IOPS。

  根据以往的经验,在看到这个数据之前,用户都一直认为瓶颈是CPU,所以要换新主机来提升CPU,但看过监测数据之后才知道,其实瓶颈都在IOPS。

  补充一下,一般状况下,一颗SATA硬盘的IOPS只有70到80左右,一颗15K SAS硬盘的IOPS,大约200到240左右。组成RAID多颗硬盘时,IOPS会跟着你的硬盘数量而增加,例如使用96颗硬盘组成RAID-5的一台Dell MD3200i,实测数据上,IOPS可以高达40,000。

当前业界常见的服务器性能指标有:

TPC-C

TPC-E

TPC-H

SPECjbb2005

SPECjEnterprise2010

SPECint2006 及 SPECint_rate_2006

SPECfp2006 及 SPECfp_rate_2006

SAP SD 2-Tier

LINPACK

RPE2

一、TPC (Transaction Processing Performance Council) 即联机交易处理性能协会, 成立于1988年的非盈利组织,各主要软硬件供应商均参与,成立目标: 为业界提供可信的数据库及交易处理基准测试结果,当前发 布主要基准测试为:

TPC-C : 数据库在线查询(OLTP)交易性能

TPC-E : 数据库在线查询(OLTP)交易性能

TPC-H : 商业智能 / 数据仓库 / 在线分析(OLAP)交易性能

1TPC-C测试内容:数据库事务处理测试, 模拟一个批发商的订单管理系统。实际衡量服务器及数据库软件处理在线查询交易处理(OLTP)的性能表现 正规 TPC-C 测试结果发布必须提供 tpmC值, 即每分钟完成多少笔 TPC-C 数据库交易 (TPC-C Transaction Per Minute), 同时要提供性价比$/tpmC。如果把 TPC-C 测试结果写成为 tpm, TPM, TPMC, TPCC 均不属正规。

2TPC-E测试内容:数据库事务处理测试,模拟一个证券交易系统。与TPC-C一样,实际衡量服务器及数据库软件处理在线查询交易处理(OLTP)的性能表现。正规TPC-E测试结果必须提供tpsE值,即每秒钟完成多少笔TPC-E数据库交易(transaction per second),同时提供$/tpsE。测试结果写成其他形式均不属正规。

对比:TPC-E测试较TPC-C测试,在测试模型搭建上增加了应用服务器层,同时增加了数据库结构的复杂性,测试成本相对降低。截止目前,TPC-E的测试结果仅公布有50种左右,且测试环境均为PC服务器和windows操作系统,并无power服务器的测试结果。除此之外,TPC官方组织并未声明TPC-E取代TPC-C,所以,说TPC-E取代TPC-C并没有根据。

GPU服务器和普通服务器的主要区别在于硬件配置和性能表现。GPU服务器通常配备了专门的图形处理器(GPU),用于加速图像处理和渲染等任务,可以提供更高的计算性能和处理能力。而普通服务器则通常配备普通的CPU和内存,没有专门的图形处理器,性能相对较低。

GPU服务器和普通服务器可以通过以下几方面进行区分:

处理器类型:GPU服务器通常配备多个高性能图形处理器(GPU),而普通服务器则通常配备中央处理器(CPU)。

计算性能:GPU服务器的主要优势在于其高并行计算能力,能够同时处理大量数据和并行任务,适用于高性能计算和并行处理任务,如深度学习和科学计算。而普通服务器则主要侧重于串行计算,适用于单个线程或较小规模并行计算。

应用场景:GPU服务器适用于深度学习、人工智能、大规模数据分析、密码学、视频渲染等对计算性能要求较高的应用场景。而普通服务器则主要用于托管网站、数据库、企业应用和一般的计算任务。

电力消耗:由于GPU服务器需要大量计算和电力支持,其功耗通常较高,需要更多的电力供应。而普通服务器的功耗相对较低。

硬件成本:GPU服务器的硬件成本通常较高,因为其配备的高性能GPU价格相对较贵。而普通服务器的硬件成本相对较低,适用于小规模的计算需求。

并行计算:GPU服务器具有大量的计算核心,能够同时执行大量并行计算任务,提高计算效率。而普通服务器则具备一定的并行计算能力,但相对有限。

数据处理:GPU服务器对于处理图像、视频和大规模的矩阵运算等数据密集型任务更为高效。而普通服务器则通常适用于处理一般数据和文字信息。

编程模型:普通服务器通常使用通用的编程语言和编程模型,如C/C++、Java、Python等。而GPU服务器则需要使用特定并行编程模型,如CUDA、OpenCL等。

综上所述,GPU服务器和普通服务器在处理器类型、计算性能、应用场景、电力消耗、硬件成本、并行计算、数据处理和编程模型等方面存在差异。需要根据实际应用需求来选择适合的服务器类型。

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 虚拟化服务器性能如何评估?

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情