灵活的IP网络测试工具
一、 IP 网络测试工具背景
1 当前网络评估与测试现状
●网络评估与测试需求广泛
(1)业务部署前的网络质量评估
(2)端到端网络性能优化与验证
(3)广域网线路质量的日常评估验证
(4)AP路由器&无线终端WIFI测试
(5)服务器网络性能测试
(6)数据中心虚拟化平台性能测试
●缺乏专业网络性能测试工具
(1)开源测试工具
性能较差;
兼容性较差。
无详细测试评估报告
(2)自研测试工具
缺乏测试公正性;
场景易受限;
兼容性较差。
2 理想的网络测试工具
(1)快速部署,高效配置
安装简易快速,无需安装额外的系统组件;
点击鼠标次数尽量少;
修改配置便利。
(2)兼容性好
适配主流的国内外操作系统;
适配主流的CPU架构。
(3)测试结果精准且一致性好
每次测试结果公差小;
不同软件版本结果差异小。
(4)详尽的统计报告
基于整体测试的概要统计结果;
可展现历史详细测试数据。
二、 IP 网络测试工具 X-Launch
1X-Launch 网络测试工具
(1)基于软件的网络及应用服务性能测试工具
双臂测试;
单臂测试。
(2)通过测试端点产生网络流量对性能进行测量
TCP、UDP、PING;
语音、视频、HTTP、FTP、MAIL、组播。
(3)测试端点软件可以快速安装部署
2X-Launch 测试部署方式
局域网公网
(1)控制端(TestConsole)
安装于Windows 7(64位);
4核CPU,8 GB内存。
150 GB硬盘
(2)测试端点(TestPoint)
软件测试端点支持Linux、Windows、Android、VxWorks、各种国产OS
3X-Launch 测试工作原理
4 灵活部署于各类终端或系统
(1)支持的OS
Windows;Linux;Android;国产OS
(2)支持的CPU架构
x86;PCPU;ARM;MIPS;Alpha;网络接口;以太网;WiFi;3G、4G、5G
(3)网络接口
以太网;WiFi;3G、4G、5G
5 具备丰富的测试业务模型
6 测试结果图表与报告
三、 X-Launch 应用场景
1 丰富的应用场景 - 无线 CPE 测试
● 无线基准性能测试;
●无线衰减测试;
●无线方向性测试;
●无线信测试;
●无线竞争测试;
●无线并发测试;
●无线远近距离测试。
2 丰富的应用场景 - 虚拟交换网络测试
(1)在虚拟化平台的VM中部署TestPoint,测试vSwitch的交换性能
(2)常见测试指标
吞吐量;时延;丢失率;乱序
3 丰富的应用场景 - 服务器网络性能测试
(1)在服务器不同类型OS中部署TestPoint实现流量环回,通过硬件仪表打流测试服务器网络性能
(2)常见测试指标
吞吐量;延迟;丢包率
4 丰富的应用场景 - 无线网络性能测试
(1)模拟真实的业务TCP、UDP、语音、HTTP等应用流量
(2)常见测试指标
吞吐量、延迟、抖动、乱序;;TCP建立时间;HTTP 首字节、末字节时间迟;语音MOS
5 丰富的应用场景 - 异地网络专线性能测试
(1)在网络端到端两头部署TestPoint,通过一对一的方式测试网络的承载指标
(2)常见测试指标
TCPUDP吞吐量;单向延迟;抖动;乱序
四、 X-Launch 成功案例
1 成功案例 - 某大 NEM 无线 CPE 测试
(1)测试挑战
国际竞争日益激烈,科技战层出不穷,在网络性能测试领域也需实现自主可控,保障整体业务的持续发展:
测试结果公差范围内;
测试配置可替换。
(2)信而泰解决方案
Windows测试控制端,测试端点支持Windows、Linux以及Android,支持下述常见测试协议:
TCP;UDP;PING;HTTP;FTP;RTSP;Voice
(3)客户收益
测试的自主可控;测试功能更新快;对需求的匹配度更高
2 成功案例 -5G 专线测试
(1)测试挑战
某医院开通电信5G专线,需进行下列测试:
5G端到端切片性能验证,可用性、健康度、丢包率、上下行带宽、延迟和抖动等;
对5G端到端切片场景进行验证大流量上下行(视频、影像);
5G端到端压力测试。
(2)信而泰解决方案
Windows测试控制端以及测试端点部署在医院网络中心机房,Android手机运行测试端点软件在医院区域内进行测试。
使用的测试协议为:
TCP_TP;UDP_STREAM
(3)客户收益
验证了5G专线在医院可用性;
验证了5G专线端到端切片性能以及使用场景;
验证专线的使用范围是否可控。
五、竞争分析
当我们在谈论“并发”时
动辄要求系统支持成百上千并发的性能需求太多了,也许系统在实际中确实存在这样的需求,但能够较全面理解此需求的情况并不多。
对于并发,我过去接触了几种理解,在接触的第一种理解中,“并发”是由loadrunner中获取,即脚本中所有或部分vuser执行至集合点函数时进行停留,等待触发条件发生以后,同时执行集合点函数后的请求操作的这一个过程,为“并发”(这一个请求操作一般存在多个http请求),可惜这种“并发”是无法直接用于衡量系统性能的。而在接触的第二种理解中,“并发”的理解是相对于服务器某一个时间区间内接收的请求数,也就是每秒的点击率(loadrunner考虑到这点,也就是analysis里面的hits/s),为“并发”,这种“并发”是可以用于对系统性能状况进行量化的,但是这种测试思想只是比较片面的从性能指标的角度去衡量系统性能,不能体现出系统性能带给用户何种性能体验(这也是不少开源性能测试工具的问题)。
前一种“并发”的理解普遍获得了loadrunner初级用户的认可,后一种“并发”的理解普遍获得系统运维、开发人员的认可,在沟通中为了方便区别开来,在两种角色里面,当大家意识到并发的理解存在差异时,大家把前一种被称为“狭义上的并发”,而后一种被称为“广义上的并发”。后来,又从淘宝团队里面了解了一种定义,貌似淘宝QA把“并发”定义为一个完整的事务请求数量过程(loadrunner也考虑到这点,也就是analysis里面的Transactions per Second)。一直以来,还有一种技术范围以外对“并发”的粗略的理解被第三方测试拿来用了,那就是用户在线数中的某个百分比即并发数。
如果一个团队里面对“并发”的理解有这么多种,那么当我们在讨论性能需求的“支持并发数”时,我们究竟在讨论什么呢?
个人认为,有一部分的原因是由于loadrunner是惠普saas(软件即服务的解决方案)的一部分,所以并不是一个纯粹技术人员使用的测试工具,它同时也是一个业务人员可以相对轻易掌握的性能测试工具,因此loadrunner内很多名词解释也不能单纯从技术人员的角度从字面意义上理解。
通常来说,面对同样100笔业务交易量,普遍会认为100vuser对服务器产生的负载会比50vuser要高,但是在性能脚本能够在较快的响应时间中完成时,由于50vuser执行过程中每一个vuser都需要发生两次迭代,导致了性能场景中vuser在脚本action部分停留的时间更长,因此反而能够得到比100vuser的更高的vuser在线数,更高在线数带来的也就是更大的负载,也就是说:
同等业务量的情况下,50 线程所产生的负载完全有可能比100 线程所产生的负载要高。
为了避免发生这种问题,“并发(集合点)”的真正作用就体现出来了,通过集合点函数控制了vuser的行为相对一致,降低了初始化过程和事务前后文请求产生的时间差影响。测试工具中并发存在的真正意义也就在这里,对集合点所理解的“并发”,和现场实际用户里面同时触发的请求关系不是太大。
分析“并发”需求时的一些典型:
a) 某个业务系统里面有10000用户,但是能够访问这个系统的终端数只有1000个、或者所需测试的业务每个月上限是1000笔,那么最高在线用户数就不可能超过1000、业务量也不可能超过1000。所以,有些时候在分析性能需求的时候,去统计一个业务系统的用户数还不如去统计能够访问这个系统的终端数、甚至业务量靠谱。
b) 某个业务系统里面,各个业务模块都不一样,那么就是说完成一笔业务交易,所产生的请求数也是不一样的,例如表单新增,有的需要填写20个字段,有的只需要填写5个字段,各个表单都不一样,那么为了更接近的去模拟用户现场负载,请求数都不一样的各种业务混在一起,并发数又应该是多少呢?
为了解决这些问题,需要首先考虑“并发”的粒度,以真实的业务场景为例:
a) 把粒度控制在用户上来看,假定所有用户访问一次系统平均耗时500秒,一个业务峰值会有800用户在线,则800/500=16。理论上,系统的性能需求是每秒要成功处理16个用户的请求;
b) 把粒度控制在事务上来看,假定所有用户执行一次完整的、成功的业务操作平均需要500秒,一个业务峰值有2000笔所关注的业务需要去执行,则2000/500=4。理论上,系统的性能需求是每秒要成功处理4笔业务交易;
c) 把粒度控制在请求上来看,假定所有用户执行一次完整的、不管成功或者失败的HTTP请求操作平均需要008秒,一个业务峰值有28000个请求需要去完成,则28000/008=350000。理论上,系统的性能需求是每秒要成功处理350000个请求。
实际一点的案例看看
在下面的图表中,横轴表示了某业务系统中上午9:00至12:00的一个区间,假定期间只有A、B、C访问了该业务系统。如果用户的访问过程中发送一个请求,则在请求发生的时间中标识一个点,由图可见:
A用户的行为:早上9:00访问了业务系统,并发生了一连串的请求(多个点已经连成一条直线),再然后没有再连续的发生请求(没有再出现黑线),而是有规律的间歇请求,我们暂且猜想用户A这个时候在浏览系统中的业务数据,这确实也符合浏览行为,空白阶段可以理解为在线的浏览,并不会对服务器产生负载;
B用户的行为:早上9:00访问了业务系统,并在临近12:00访问了业务系统,发送了一连串的请求,我们猜想该用户在执行了一些业务操作,浏览所占的比例比较低;
C用户的行为:仅仅在10:30左右访问了业务系统,执行了一连串业务操作以后没有再访问系统。
那么在这里案例里面,我们已知:3用户在线。问题:并发用户最高该是多少?答案其实显而易见,并发只有2个用户,因为用户C执行的业务操作的同时只有A也在执行业务操作,B完全是不在线。
还会有人认为100用户在线就应该上100个vuser/线程么?
主要区别是,性质不同、目的不同、特点不同,具体如下:
一、性质不同
1、压力测试
压力测试是在强负载(大数据量、大量并发用户等)下的测试,查看应用系统在峰值使用情况下操作行为,从而有效地发现系统的某项功能隐患、系统是否具有良好的容错能力和可恢复能力。压力测试分为高负载下的长时间(如24小时以上)的稳定性压力测试和极限负载情况下导致系统崩溃的破坏性压力测试。压力测试可以被看作是负载测试的一种,即高负载下的负载测试,或者说压力测试采用负载测试技术。
2、负载测试
负载测试是模拟实际软件系统所承受的负载条件的系统负荷,通过不断加载(如逐渐增加模拟用户的数量)或其它加载方式来观察不同负载下系统的响应时间和数据吞吐量、系统占用的资源(如CPU、内存)等,以检验系统的行为和特性,以发现系统可能存在的性能瓶颈、内存泄漏、不能实时同步等问题。负载测试更多地体现了一种方法或一种技术。
3、并发测试
指当测试多用户并发访问同一个应用、模块、数据时是否产生隐藏的并发问题,如内存泄漏、线程锁、资源争用问题,几乎所有的性能测试都会涉及并发测试。
二、目的不同
1、压力测试
目的是在软件投入使用以前或软件负载达到极限以前,通过执行可重复的负载测试,了解系统可靠性、性能瓶颈等,以提高软件系统的可靠性、稳定性,减少系统的宕机时间和因此带来的损失。
2、负载测试
负载测试的目标是确定并确保系统在超出最大预期工作量的情况下仍能正常运行。此外,负载测试还要评估性能特征。例如,响应时间、事务处理速率和其他与时间相关的方面。
3、并发测试
测试目的并非为了获得性能指标,而是为了发现并发引起的问题。
三、特点不同
1、压力测试
压力测试通常是在高负载情况下来对系统的稳定性进行测试,更有效地发现系统稳定性的隐患和系统在负载峰值的条件下功能隐患等。
2、负载测试
负载测试是通过改变系统负载方式、增加负载等来发现系统中所存在的性能问题。
3、并发测试
在具体的性能测试工作中,并发用户往往都是借助工具来模拟的,例如LoadRunner性能测试工具中叫做虚拟用户,因为实际情况中去实现同时多人并发的测试环境要求比较高而测试成本高、测试时间也是比较长。
-压力测试
-负载测试
-并发测试
手游服务器测试主要有以下几个方面要做:
负载测试
稳定性测试
接口测试
容量测试等
安利一款工具可以很好地进行服务器压力测试:WeTest腾讯质量开放平台
测试高并发,实时性能报表,专家级性能优化建议,你要做的仅仅是填下被测的URL即可。
HPLoadRunner 是一种预测系统行为和性能的负载测试工具。通过以模拟上千万用户实施并发负载及实时性能监测的方式来确认和查找问题,LoadRunner 能够对整个企业架构进行测试。通过使用LoadRunner ,企业能最大限度地缩短测试时间,优化性能和加速应用系统的发布周期。
企业的网络应用环境都必须支持大量用户,网络体系架构中含各类应用环境且由不同供应商提供软件和硬件产品。难以预知的用户负载和愈来愈复杂的应用环境使公司时时担心会发生用户响应速度过慢,系统崩溃等问题。这些都不可避免地导致公司收益的损失。LoadRunner 能让企业保护自己的收入来源,无需购置额外硬件而最大限度地利用现有的IT 资源,并确保终端用户在应用系统的各个环节中对其测试应用的质量,可靠性和可扩展性都有良好的评价。 使用LoadRunner 的Virtual User Generator,您能很简便地创立起系统负载。该引擎能够生成虚拟用户,以虚拟用户的方式模拟真实用户的业务操作行为。它先记录下业务流程(如下订单或机票预定),然后将其转化为测试脚本。利用虚拟用户,您可以在Windows ,UNIX 或Linux 机器上同时产生成千上万个用户访问。所以LoadRunner能极大的减少负载测试所需的硬件和人力资源。另外,LoadRunner 的TurboLoad 专利技术能。
提供很高的适应性。TurboLoad 使您可以产生每天几十万名在线用户和数以百万计的点击数的负载。
用Virtual User Generator 建立测试脚本后,您可以对其进行参数化操作,这一操作能让您利用几套不同的实际发生数据来测试您的应用程序,从而反映出本系统的负载能力。以一个订单输入过程为例,参数化操作可将记录中的固定数据,如订单号和客户名称,由可变值来代替。在这些变量内随意输入可能的订单号和客户名,来匹配多个实际用户的操作行为。
LoadRunner 通过它的Data Wizard 来自动实现其测试数据的参数化。Data Wizard 直接连于数据库服务器,从中您可以获取所需的数据(如定单号和用户名)并直接将其输入到测试脚本。这样避免了人工处理数据的需要,Data Wizard 为您节省了大量的时间。
为了进一步确定您的Virtual user 能够模拟真实用户,您可利用LoadRunner 控制某些行为特性。例如,只需要点击一下鼠标,您就能轻易控制交易的数量,交易频率,用户的思考时间和连接速度等。 Virtual users 建立起后,您需要设定您的负载方案,业务流程组合和虚拟用户数量。用LoadRunner 的Controller,您能很快组织起多用户的测试方案。Controller 的Rendezvous 功能提供一个互动的环境,在其中您既能建立起持续且循环的负载,又能管理和驱动负载测试方案。
而且,您可以利用它的日程计划服务来定义用户在什么时候访问系统以产生负载。这样,您就能将测试过程自动化。同样您还可以用Controller 来限定您的负载方案,在这个方案中所有的用户同时执行一个动作---如登陆到一个库存应用程序——---来模拟峰值负载的情况。另外,您还能监测系统架构中各个组件的性能——--- 包括服务器,数据库,网络设备等——---来帮助客户决定系统的配置。
LoadRunner 通过它的AutoLoad 技术,为您提供更多的测试灵活性。使用AutoLoad ,您可以根据用户人数事先设定测试目标,优化测试流程。例如,您的目标可以是确定您的应用系统承受的每秒点击数或每秒的交易量。 LoadRunner 还能支持Media Stream应用。为了保证终端用户得到良好的操作体验和高质量Media Stream,您需要检测您的Media Stream应用程序。使用LoadRunner ,您可以记录和重放任何流行的多媒体数据流格式来诊断系统的性能问题,查找原由,分析数据的质量。
完整的企业应用环境的支持。
LoadRunner 支持广泛的协议,可以测试各种IT 基础架构。 PerformanceRunner (简称PR)是性能测试软件,通过模拟高并发的客户端,通过协议和报文产生并发压力给服务器,测试整个系统的负载和压力承受能力,实现压力测试、性能测试、配置测试、峰值测试等。
功能如下:
● 录制测试脚本
PR通过兼听应用程序的协议和端口,录制应用程序的协议和报文,创建测试脚本。PR采用java作为标准测试脚本,支持参数化、检查点等功能。
● 关联与session
对于应用程序,特别是B/S架构程序中的session,通过“关联”来实现。用户只需要点击“关联”的按钮,PR会自动扫描测试脚本,设置关联,实现有session的测试。
● 集合点
PR支持集合点,通过函数可以设置集合点。设置集合点能够保证在一个时间点上的并发压力达到预期的指标,使性能并发更真实可信。
● 产生并发压力
性能脚本创建之后,通过创建项目,设置压力模型,就可以产生压力。PR能够在单台机器上产生多达5000个并发的压力。
● 应用场景支持
通过设置多项目脚本的压力曲线,可以实现应用场景测试。
● 执行监控
在启动性能测试之后,系统会按照设定的场景产生压力。在执行过程中,需要观察脚本执行的情况,被测试系统的性能指标情况。PR通过执行监控来查看这些信息。
● 性能分析报表
一次性能测试执行完成,会创建各种性能分析报表,包括cpu相关、吞吐率、并发数等。
系统要求:windows(32位/64位) 2000/xp/vista/2003/7/2008
这个时候总是无奈的说:
你应该学习Python 或是Java
你应该掌握Selenium
又或者你需要学会jmeter,嗯,可能LoadRunner你应该学习
也许SoapUI是个不错的选择,或者你可是试试PostMan
其实这些都不是我真正的答案,我想说:只专注于一种编程语言或一种工具可能限制你的发挥,尤其可能限制了你在工作中提供的价值。如果你提供的价值在逐步退化,那么你的舞台可能突然谢幕,你的职业停滞不前,受到限制。
所以,什么最重要?当然是能力了!
下面我就介绍下2019最好用的10个自动化测试工具,希望可以充实你的知识库,打开你的职业发展舞台!
在自动化测试领域,自动化工具的核心地位毋庸置疑。我总结了最顶尖的自动化测试工具,这些工具可以帮助组织更好地定位自己,跟上软件测试的趋势。这份清单包含了开源和商业的自动化测试解决方案。
Selenium:WebUI自动化测试
Selenium是网页应用中最流行的开源自动化测试框架。起源于2000年,10多年来不断地完善,Selenium成为许多Web自动化测试人员的选择,尤其是那些有高级编程和脚本技能的人。Selenium也成为了其他开源自动化测试工具比如Katalon Studio,Watir,Protractor和Robot Framework的核心框架。
Selenium 支持多系统环境(Windows,Mac,Linux)以及多种浏览器(Chrome,FireFox,IE以及无头浏览器(没有界面))。它的脚本可以由各种各样的编程语言编写,比如 Java,Groovy,Python,C#,PHP,Ruby 以及 Perl。
因为Selenium的灵活性,测试人员可以写各种复杂的、高级的测试脚本来应对各种复杂的问题,它需要高级的编程技能和付出来构建满足自己需求的自动化测试框架和库。
Appium:APP UI自动化测试
Appium是一个移动端自动化测试开源工具,支持iOS和Android平台,支持Python、Java等语言,即同一套Java或Python脚本可以同时运行在iOS和Android平台,Appium 是一个C/S架构,核心是一个Web服务器,它提供了一套REST的接口。当收到客户端的连接后,就会监听到命令,然后在移动设备上执行这些命令,最后将执行结果放在HTTP响应中返还给客户端。
Jmeter:接口测试,性能测试
JMeter是一个开源的Java桌面应用程序,主要用于web应用程序的负载测试。它还支持单元测试和有限的功能测试。
它有很多好的特性,比如动态报告、可移植性、强大的测试IDE等,并且支持不同类型的应用程序、协议、shell脚本、Java对象和数据库。
Postman:接口测试
Postman 提供功能强大的Web API和HTTP请求的调试,它能够发送任何类型的HTTP请求 (GET, POST, PUT, DELETE…),并且能附带任何数量的参数和Headers。不仅如此,它还提供测试数据和环境配置数据的导入导出,付费的Post Cloud用户还能够创建自己的 Team Library用来团队协作式的测试,并能够将自己的测试收藏夹和用例数据分享给团队。
SoapUI:接口测试
SoapUI是一个非常流行的用于SOAP和REST的开源API测试自动化框架。它还支持功能测试、性能测试、数据驱动测试和测试报告。
Monkey:稳定性测试
软件附带在sdk中,适用于android和ios,通过adb shell,生成用户或系统的伪随机事件。压力测试结果:崩溃crash,无响应anr,基本命令:adb shell monkey 1000。
Robot Framework:Web UI自动化测试,接口测试
Robot Framework是一个开源自动化框架,它实现了用于验收测试和验收测试驱动开发(ATDD)的关键字驱动方法。Robot Framework为不同的测试自动化需求提供框架。但是,通过使用Python和Java实现其他测试库,可以进一步扩展其测试功能。Selenium WebDriver是Robot Framework中常用的外部库。
测试工程师可以利用Robot Framework作为自动化框架,不仅可以进行Web测试,还可以用于Android和iOS测试自动化。对于熟悉关键字驱动测试的测试人员,可以轻松学习Robot Framework。
QTP:Web UI自动化测试
QTP是一种自动测试工具。使用 QTP 的目的是想用它来执行重复的手动测试,主要是用于回归测试和测试同一软件的新版本。因此你在测试前要考虑好如何对应用程序进行测试,例如要测试那些功能、操作步骤、输入数据和期望的输出数据等。
QTP针对的是GUI应用程序,包括传统的Windows应用程序,以及现在越来越流行的Web应用。它可以覆盖绝大多数的软件开发技术,简单高效,并具备测试用例可重用的特点。其中包括:创建测试、插入检查点、检验数据、增强测试、运行测试、分析结果和维护测试等方面。
LoadRunner:性能测试
LoadRunner,是一种预测系统行为和性能的负载测试工具。通过以模拟上千万用户实施并发负载及实时性能监测的方式来确认和查找问题,LoadRunner能够对整个企业架构进行测试。
企业使用LoadRunner能最大限度地缩短测试时间,优化性能和加速应用系统的发布周期。LoadRunner可适用于各种体系架构的自动负载测试,能预测系统行为并评估系统性能。
Jenkins:持续集成
自动化构建编译,部署,任务执行,测试报告,邮件通知等。
使用开源测试工具有很多好处,尤其是无直接的购买成本,而且可定制,但也有一定的局限性。尤其是缺乏专业的技术支持,有限的许可支持以及脚本维护有时会成为一个挑战性的工作。
为了选择正确的自动化测试工具,你应该确保该工具是处于活跃维护状态的,并且与你所在企业业务、团队、技能匹配,并且是团队里有相应的专家。
因此在选择工具之前,你必须仔细研究,以便该工具能够满足你的测需求,并且能帮助你更好的执行测试。
开源测试管理工具:Bugfree、Bugzilla、TestLink、mantis zentaopms
开源功能自动化测试工具:Watir、Selenium[1]、MaxQ、WebInject
开源性能自动化测试工具:Jmeter、OpenSTA、DBMonster、TPTEST、Web Application Load Simulator
禅道测试管理工具:功能比较全面的测试管理工具,功能涵盖软件研发的全部生命周期,为软件测试和产品研发提供一体化的解决方案。是一款优秀的国产开源测试管理工具。
Quality Center:基于Web的测试管理工具,可以组织和管理应用程序测试流程的所有阶段,包括指定测试需求、计划测试、执行测试和跟踪缺陷。
QuickTest Professional:用于创建功能和回归测试。
LoadRunner[2]:预测系统行为和性能的负载测试工具。
其他测试工具与框架还有Rational Functional Tester、Borland Silk系列工具、WinRunner、Robot等。
国内免费软件测试工具有:AutoRunner和TestCenter。
这篇文章解决了很多用户的难题,就是如何通过最大用户并发数来确定系统最大用户数,因为这个问题不解决的话,用户很难挑选到最为适合自身系统的服务器,我们来看看这篇文章。以下是作者原文。
本篇主要是性能方面的。
一个系统的最大并发用户数为1100,怎么能推算出该系统的支持最大用户数。
其中用户性能要求如下:支持100万注册用户
性能需求分析:
1、根据用户的要求,本系统要支持100万用户,其中性能机器配置如何?高峰值是多少?带宽?等
2、如果都是采用公司的测试环境,那么本次性能应该做哪几种性能?性能评测、负载测试、强度测试?
3、怎么算出并发用户数?响应时间?
性能指标确定:
因为用户的性能需求太广,没有定到具体的数值。那么我怎么开展后继的工作?1、确定采用公司测试环境,不用考虑环境问题。也就是说,客户端、服务端以及带宽等一系统都可以不用考虑,这是固定。
2、考虑此项目组以前开发过的系统性能情况,能否做为一个参考值。解决方案:找出本项目组以并发过二个项目,其性能个项指标进行求权。其中浏览功能:并发数为1100,平均响应时间363秒;每用户平均响应时间为033秒。每秒中并发3个用户。其中一系统用户已达500万,另一系统用户为320万。并且二系统一直运行正常,但目前的二系统的服务器各为3台。可以得出一台服务器为载166万,甚至更多。(因为服务器中有求权的关系)
3、100万用户,那么怎么计算出他的每小时峰值活动用户数?
解决方案:采用80•20原则计算得到每小时峰值活动用户数 6667万/小时;那么每秒中的同一功能点点击并发数应该是185。
4、怎么得其并发数?
解决方案:本系统有多少个功能点?功能点为153个;也就是本系统在高峰值时一功能将被点击1258次,每秒点击035次。(不考虑间隔时间)考虑以前本项目组的数值。初步设置并发数为1100,主要以浏览功能为主、其次是查询和新增。
5、应该测试那种性能类型经再三考虑,三种性能都进行测试。
执行性能:
评测,依据性能指标确定中的第三点,将用户的并发设置为300-350,看其情况。负载测试,以1100为起点强度测试,为15小时和24小时为准
性能测试结果:
发现本系统最大用户支持为1100失败用户最高为209,响应时间为315。可以判断此系统最大并发数为1100左右。也就说此系统在一台服务器上可支持150万用户数。
根据上述情况,可以得出:
1100用户并发时,用户一共响应时间为315秒(即每用户平均响应时间0005秒),其中最高产生209个失败用户,但成功用户基本上可以完成后续操作,符合现系统要求的最大稳定用户数。由此可得出本系统在新增功能点中支持最大用户并发数为1100。按照1100比例,计算得到每小时峰值活动用户数11万/小时;采用80•20原则计算得出本系统支持注册用户数约为165万。而本系统性能需求大规模支持100万注册用户,由上述的数据我们的系统已达到本系统性能需求。
注:100万,采用80•20原则计算得到每小时峰值活动用户数6667万/小时。
0条评论