基于LINUX环境的自动化测试的研究应用

基于LINUX环境的自动化测试的研究应用,第1张

(一)各种技术应用的前提。对于在开源社区和一些开源项目中获得的测试工具,首先需要了解工具适用于哪些类型应用的测试,以及工具发布后的发布说明和FAQ。开源的工具通常不像商业工具那样成熟稳定,因此找出工具的适用范围以及探索工具的实现程度是进行自动化测试应用的前提。

(二)各种技术应用的环境需求。对于各类工具,需要关注编译和运行时对各种包和库及其版本的依赖关系以及对预先安装的应用的依赖关系。这些在用户手册中都有详尽的说明。

(三)服务器性能监视器。大部分测试工具没有提供服务器端的性能监控功能,测试工程师需要根据实际的需求编写性能监控脚本来配合工具的使用。

下面结合曾经参与进行过的Linux平台下的自动化测试的研究,面向不同类别的测试用例自动化的需求,将主要从功能测试,如GUI测试、命令行客户端的测试,以及性能测试等几个方面对Linux平台下的测试工作的自动化进行分析和说明。

GZW自动化洲试

对于GUI测试的自动化,通常的测试工具所使用的捕捉/回放技术有两种,一种是通过记录界面的鼠标事件(如点击、移动)和键盘事件来完成录制和回放,另外一种则是录制和回放都是基于控件的识别和操作进行的,每个脚本的执行都是控件对象的属性改变或事件触发。我们从开源社区可以获得如上两种类型的运行于Linux平台之上的典型测试工具,如Knee和LDTP等。

(一)Xnee工具

在Linux操作系统的xll环境下,Xnee能够录制、回放和分发用户的动作。Xnee的捕捉/回放技术是记录鼠标事件和键盘事件。进入录制模式时,Xnee记录发送至和来自X server之间的协议数据拷贝,并生成Xneesession文件。在回放模式下,Xnee读取Xnee Session中的事件,模仿整个录制过程(即用户操作过程)完成和x server之间的通讯,被录制的应用软件(Xclient)则接收来自xserver的消息,完成预设的动作。

(二)LDTP测试工具/框架

Linux Desktop Testing Project(LDTP)测试工具/框架能够基于用户在应用界面的选择进行脚本的录制。LDTPI具使用了Gnome环境下的Accessibility库即辅助选项库(at-spi)。使用辅助选项能够获得应用通过AT-SPI协议提供的关于用户界面的信息和界面控件的当前状态或者属性。LDTPI具/框架的体系结构如下:

AT-SPI的基础思想就是为用户界面的可视化元素提供对应的辅助对象,而录制完成的每个脚本的执行都是基于这些辅助对象进行的。对于希望利用LDTPI具进行测试的应用,需要激活辅助选项。

(三)GUI自动化测试工具的应用

在实际的GUI自动化测试中,LDTPI具应用的场景会更广泛一些。LDTPI具可以识别窗口中的对象(如按钮),测试脚本使用LDTP的API接口,每个API接口对UI对象进行操作存在两个最基本的入口,即窗口和对象,窗口通过窗口的类型和名称(即标题)识别,对象通过希望操作的控件的类型和名称(标签或者关联的标签)识别。我们同样可以通过at-pokel具展现激活了辅助选项的应用程序窗口的对象及对象属性。在测试Linux桌面产品和服务器产品的过程中,使用LDTPI具可以测试任何启用辅助选项的Gnome应用,如Mozilla,OpenOfficeorg、Evolution邮件客户端,Nautilus文件浏览器等等,此外还可以测试UI界面基于Swing的Java应用,以及KDE4O上基于QT40的应用等等。

而Xneel具所针对的应用程序类型就没有特别的限制,对于一些简单的窗口验证测试和界面的稳定性测试等则比较有效。Xnee相对于基于控件方式捕获和回放的工具而言,不用担心存在控件不能被识别的问题。

从使用的情况来看,各个工具也都因为实现技术而存在一定的缺陷,如两个工具均不能插入验证点,从而不能实现用例级别的结果验证;LDTP对于界面的个别元素捕获不到以及不能对不支持辅助选项的应用进行测试等等;而Xneel具生成的脚本可编辑性差,同时由于录制生成的脚本中的事件和屏幕坐标相关,因此当出现窗口弹出位置发生变化等问题时,就需要考虑回放时应该如何来处理这些变化。

测试分类:

1、界面测试

1)给用户的整体感:舒适感;凭感觉能找到想要找的信息;设计风格是否一致

2)各控件的功能

2、功能测试

1)删除/增加某一项:是否对其他项造成影响,这些影响是否都正确

2)列表默认值检查

3)检查按钮功能是否正确:新建、编辑、删除、关闭、返回、保存、导入、上一页、下一页、页面跳转、重置(常见错误)

4)字符串长度检查:超出长度

5)字符类型检查

6)标点符号检查:空格、各种引号、Enter键

7)特殊字符:常见%、“、”

8)中文字符:是否乱码

9)检查信息完整:查看信息,查看所填信息是否完整更新;更新信息,更新信息与添加信息是否一致

10)信息重复:需唯一信息处,比如重复的名字或ID、重名是否区分大小写、加空格

11)检查删除功能:不选择任何信息,按Delete,看如何处理;选择一个或多个进行删除;多页选、翻页选删除;删除是否有提示

12)检查添加和修改是否一致:添加必填项,修改也该必填;添加为什么类型,修改也该什么类型

13)检查修改重名:修改时把不能重名的项改为已存在的内容

14)重复提交表单:一条已经成功提交的记录,返回后再提交

15)检查多次使用返回键:返回到原来页面,重复多次

16)搜索检查:存在或不存在内容,看搜索结果是否正确;多个搜索条件,同时输入合理和不合理条件;特殊字符

17)输入信息的位置

18)上传下载文件检查:功能是否实现,

上传:上传文件是否能打开、格式要求、系统是否有解释信息、将不能上传的文件格式修改后缀为可上传的文件格式;

下载:下载是否能打开、保存、格式要求

19)必填项检查:必填项未填写;是否有提示,如加;对必填项提示返回后,焦点是否自动定位到必填项

20)快捷键检查:是否支持快捷键Ctrl+C、Ctrl+V、backspace;对不允许做输入的字段(如:下拉选项),对快捷方式是否也做了限制

21)Enter键检查:输入结束后按Enter键,系统如何处理

22)刷新键检查:按浏览器刷新键如何处理

23)回退键检查:按浏览器回退键如何处理

24)空格检查:输入项输入一个或多个空格

25)输入法半角全角检查:比如,浮点型,输入全角小数点“。”或“ ”,如4 5;全角空格

26)密码检查:输入加密方式的极限字符;密码尽可能长

27)用户检查:不同种类管理员用户的不同权限,是否可以互相删除、管理、编辑;一般用户的权限;注销功能,老用户注销再注册,是否为新用户

28)系统数据检查:数据随业务过程、状态的变化保持正确,不能因为某个过程出现垃圾数据,也不能因为某个过程而丢失数据。

29)系统可恢复性检查:以各种方式把系统搞瘫,测试系统是否可以迅速恢复

30)确认提示检查:系统更新、删除操作:是否有提示、取消操作;提示是否准确;事前、事后提示

31)数据注入检查:对数据库注入,特殊字符,对SQL语句进行破坏

32)时间日期检查:时间、日期、时间验证:日期范围是否符合实际业务;对于不符合实际业务的日期是否有限制

33)多浏览器验证

3、性能测试

1)压力测试:实际破坏一个Web应用系统,测试系统的反应,测试系统的限制和故障恢复能力

2)负载测试:在某一负载级别上的性能,包括某个时刻同时访问Web的用户数量、在线数据处理的数量

3)强度测试:测试对象在性能行为异常或极端条件下(如资源减少或用户过多)的可接受性,以此验证系统软硬件水平

4)数据库容量测试:通过存储过程往数据库表中插入一定数量的数据,看是否能及时显示

5)预期指标的性能测试:在需求分析和设计阶段会提出一些性能指标,对于预先确定的性能要求要首先进行测试

6)独立业务性能测试:对核心业务模块做用户并发测试,包括同一时刻进行完全一样的操作、同一时刻使用完全一样的功能

7)组合业务性能测试:模拟多用户的不同操作,最接近实际用户使用情况,按用户实际的实际使用人数比例来模拟各个模块的组合并发情况

8)疲劳强度性能测试:系统稳定运行情况下,以一定负载压力来长时间运行系统的测试

9)网络性能测试:准确展示带宽、延迟、负载、端口的变化是如何影响用户的相应时间的

10)大数据量性能测试:实时大数据量,模拟用户工作时的实时大数据量;极限状态下的测试,系统使用一段时间,积累一段数据量时能否正常运行,以及对前面两种进行结合

11)服务器性能测试:在进行用户并发性能测试、疲劳强度、大数据量性能测试时,完成对服务器性能的监控,并进行评估

12)一些特殊的测试:配置测试、内存泄漏的一些特殊测试

4、可用性测试(接口测试)

1)整体界面测试

2)多媒体测试

3)导航测试

5、客户端兼容性

平台测试:windows;unix;macintosh;linux

浏览器测试:不同厂商的浏览器对Java、Javascript、ActiveX、plug-ins或不同的HTML的规格

不同的支持;框架和层次结构在不同浏览器也不同的显示

6、安全性

安全性测试要求:

1)能够对密码试探工具进行防范

2)能够防范对Cookie攻击的常用手段

3)敏感数据保证不用明文传输

4)能防范通过文件名猜测和查看html文件内容获取重要信息

5)能保证在网站收到工具后在给定时间内恢复,重要数据丢失不超过1小时

web 的性能测试工具:

随着Web 20技术的迅速发展,许多公司都开发了一些基于Web的网站服务,通常在设计开发Web应用系统的时候很难模拟出大量用户同时访问系统的实际情况。

因此,当Web网站遇到访问高峰时,容易发生服务器响应速度变慢甚至服务中断。

为了避免这种情况,需要一种能够真实模拟大量用户访问Web应用系统的性能测试工具进行压力测试,来测试静态HTML页面的响应时间,甚至测试动态网页(包括ASP、PHP、JSP等)的响应时间,为服务器的性能优化和调整提供数据依据。

1、企业级自动化测试工具WinRunner

Mercury Interactive公司的WinRunner是一种企业级的功能测试工具,用于检测应用程序是否能够达到预期的功能及正常运行。

2、工业标准级负载测试工具Loadrunner

LoadRunner 是一种预测系统行为和性能的负载测试工具

3、全球测试管理系统testdirector

TestDirector 是业界第一个基于Web的测试管理系统,它可以在您公司内部或外部进行全球范围内测试的管理。

4、功能测试工具Rational Robot

IBM Rational Robot 是业界最顶尖的功能测试工具,它甚至可以在测试人员学习高级脚本技术之前帮助其进行成功的测试。

它集成在测试人员的桌面IBM Rational TestManager 上,在这里测试人员可以计划、组织、执行、管理和报告所有测试活动,包括手动测试报告。

这种测试和管理的双重功能是自动化测试的理想开始。

5、单元测试工具xUnit系列

目前的最流行的单元测试工具是xUnit系列框架,常用的根据语言不同分为JUnit(java),CppUnit(C++),DUnit (Delphi ),NUnit(net),PhpUnit(Php )等等。

该测试框架的第一个和最杰出的应用就是由Erich Gamma (《设计模式》的作者)和Kent Beck(XP(Extreme Programming)的创始人 )提供的开放源代码的JUnit

6、功能测试工具SilkTest

Borland SilkTest 2006属于软件功能测试工具,是Borland公司所提出软件质量管理解决方案的套件之一。

这个工具采用精灵设定与自动化执行测试,无论是程序设计新手或资深的专家都能快速建立功能测试,并分析功能错误。

7、性能测试工具WAS

Microsoft Web Application Stress Tool 是由微软的网站测试人员所开发,专门用来进行实际网站压力测试的一套工具。

透过这套功能强大的压力测试工具,您可以使用少量的Client端计算机仿真大量用户上线对网站服务所可能造成的影响。

8、自动化白盒测试工具Jtest

Jtest是parasoft公司推出的一款针对java语言的自动化白盒测试工具,它通过自动实现java的单元测试和代码标准校验,来提高代码的可靠性。

parasoft同时出品的还有C++ test,是一款C/C++白盒测试工具。

9、功能和性能测试的工具JMeter

JMeter是Apache组织的开放源代码项目,它是功能和性能测试的工具,100%的用java实现。

10、性能测试和分析工具WEBLOAD

webload是RadView公司推出的一个性能测试和分析工具,它让web应用程序开发者自动执行压力测试;webload通过模拟真实用户的操作,生成压力负载来测试web的性能。

扩展资料:

漏洞测试

企业网站做的越来越复杂、功能越来越强。不过这些都不是凭空而来的,是通过代码堆积起来的。如果这个代码只供企业内部使用,那么不会带来多大的安全隐患。

但是如果放在互联网上使用的话,则这些为实现特定功能的代码就有可能成为攻击者的目标。

天眼举一个简单的例子。在网页中可以嵌入SQL代码。而攻击者就可以利用这些SQL代码来发动攻击,来获取管理员的密码等等破坏性的动作。

有时候访问某些网站还需要有某些特定的控件。用户在安装这些控件时,其实就有可能在安装一个木马(这可能访问者与被访问者都没有意识到)。

为此在为网站某个特定功能编写代码时,就要主动出击。从编码的设计到编写、到测试,都需要认识到是否存在着安全的漏洞。

天眼在日常过程中,在这方面对于员工提出了很高的要求。各个员工必须对自己所开发的功能负责。

已知的病毒、木马不能够在所开发的插件中有机可乘。通过这层层把关,就可以提高代码编写的安全性。

-WEB服务器

集成测试和系统测试的区别

一般的小系统区分不是很大的。

1、计划和用例编制的先后顺序

从V模型来讲,在需求阶段就要制定系统测试计划和用例,HLD的时候做集成测试计划和用例,有些公司的具体实践不一样,但是顺序肯定是先做系统测试计划用例,再做集成。

2、用例的粒度

系统测试用例相对很接近用户接受测试用例。

集成测试用例比系统测试用例更详细,而且对于接口部分要重点写,毕竟要集成各个模块或者子系统。

3、执行测试的顺序

先执行集成测试,待集成测试出的问题修复之后,(配置管理,基线化),再做系统测试。

4、用例的数量

系统测试的用例数量一般比集成测试的用例数量少,具体的数量要根据各个公司的性能基线来确定,一般写不到这个数量的测试用例还通不过审计。 系统测试这个称呼往往被用于压力测试、容量测试、性能测试、安全测试等方面。

而集成测试这个称呼往往被用于细节化的功能测试的超集——从用户需求来设计和组织较大颗粒度的功能测试。

系统测试最主要的就是功能测试,测试软件《需求规格说明书》中提到的功能是否有遗漏,是否正确的实现。做系统测试要严格按照《需求规格说明书》,以它为标准。测试方法一般都使用黑盒测试 法;

集成测试在系统测试之前,单元测试完成之后系统集成的时候进行测试。集成测试主要是针对程序内部结构进行测试,特别是对程序之间的接口进行测试。集成测试对测试人员的编写脚本能力要求比

较高。测试方法一般选用黑盒测试和白盒测试相结合。

集成测试:是在软件系统集成过程中所进行的测试,其主要目的是检查软件单位之间的借口是否正确。它根据集成测试计划,一边将模块或其他年间单位组

合成越来越大的系统,一边运行该系统,以

分析所组成的系统是否正确,各个组成部分是否合拍。集成测试的策略主要有自顶向下和自底向上两种。也可以理解为在软件设计单元、功能模块组装、集成为系统时,对应用系统的各个部件(软件单元

、功能模块接口、链接等)进行的联合测试,以决定他们能否在一起共同工作,部件可以是代码块、独立的应用、网络上的客户端或服务器端程序。

系统测试:系统测试是基于软件需求说明书的黑盒测试,是对已经集成好的软件系统进行彻底的测试,以验证软件系统的正确性和性能等满足其规约所指定的要求,检查软件的行为和输出是否正确,

并非一项简单的任务,被称为测试的“先知者问题”。因此,系统测试应该按照测试计划进行,其输入、输出和其他的动态运行行为应该与软件规约进行对比。软件系统测试的方法很多,主要有功能测试 ,性能测试,随机测试等。

通俗的讲,一个产品从研发到出厂的工程中,测试分为三个阶段:单元测试、集成测试、系统测试; 单元测试:一个模块的功能及常规错误测试; 集成测试:完成单元测试后,各模块联调测试;集 中在各模块的接口是否一致、各模块间的数据流和控制硫是否按照设计实现其功能、以及结果的正确性验证等等;可以使整个产品的集成测试,也可以使大模块的集成测试; 系统测试:针对整个产品的

全面测试,既包含各模块的验证性测试(验证前两个阶段测试的正确性)和功能性(产品提交个用户的功能)测试,又包括对整个产品的健壮性、安全性、可维护性及各种性能参数的测试。

狭义的软件性能测试指为验证软件性能指标、评估系统服务能力、推荐系统软硬件配置、完成系统性能优化等而开展的测试活动;

广义的软件性能测试指在测试过程中需要相关性能测试方法配合完成的系统测试活动,包括可靠性测试、可恢复性测试、稳定性测试、兼容性测试、可扩展性测试等。

性能测试的七种方法:

1基准测试

基准测试是指通过设计科学的测试方法,测试工具和测试系统,实现对一类测试对象的某项指标进行定量的和可对比的测试。

2压力测试

通过对软件系统不断施加压力,识别系统性能拐点,从而获得系统提供的最大服务界别的测试活动,主要目的是检查系统处于压力情况下应用的表现。

3负载测试

通过在被测系统中不断增加压力,直到达到性能指标极限要求。主要目的是找到特定的环境下系统处理能力的极限。

4并发测试

主要指当测试多用户并发访问同一个应用、模块、数据时是否产生隐藏的并发问题,如内存泄漏、线程锁、资源争用问题,几乎所有的性能测试都会涉及并发测试。主要目的并非是为了获得性能指标,而是为了发现并引起的问题。

5疲劳测试

通过让软件在一定访问量情况下长时间运行,以检验系统性能在多长时间会出现明显下降,主要目的是验证系统运行的可靠性。

6数据量测试

通过让软件在不同的数据量情况下运行,以检测系统性能在各种数据量情况下的表现。主要目的是找到支持系统正常工作的数据量权限。

7配置测试

配置测试主要是针对硬件而言,了解各种不同环境对系统性能影响的程度,从而找到系统各项资源的最优分配原则。主要目的是了解各种不同因素对系统性能影响的程度,从而判断出最值得进行的调优操作。

为什么学习性能测试?

门槛相对较低:比起自动化测试的纯写代码,性能测试入门门槛相对较低,是大部分转型和提升的朋友首选的切入口。

快速完善知识体系:优秀的性能测试工程师需要学习数据库、架构、工具等多方面的知识,能帮助大家完善整体的知识体系,提升综合竞争力。

市场大:性能测试工程师目前尚未饱和,处于发展中,机遇和挑战并存,谁能提前切入该领域谁就占领一席之地,你懂得!(单纯的功能测试以后危机会越来越严重)

测试团队使用的主流测试用例管理平台:1PingCode ;2TestRail;3Testlink;4Zephyr+Jira;5TestCenter;6飞蛾。

目前市面上的测试用例管理工具有很多,但由于针对的项目、领域、目标用户,功能也并不一样,所以选择一款适合的测试管理平台并不轻松。做好这件事,首先要需求明确你用测试管理工具干什么? 最终想要达到什么目标?

只有这样才能进一步完成对测试用例管理平台的选型,测试管理工具大体上分俩类:

一类就是针对QA的功能测试,主要是满足测试人员对用例的维护,测试计划的建立,用例的执行,以及生成测试报告等;

另一类就是针对开发人员的接口测试,功能测试,压力测试,性能测试,以及自动化测

等。

这2种不同的使用场景,对工具的要求也大不相同,在不同的企业内,这2种不同的场景可能一个测试团队来完成,也有可能是测试人员只是负责功能的测试,开发人员来完成接口测试,功能测试,压力测试,性能测试,以及自动化测试,这完全取决于整个研发团队的工程化能力和人员配置。

聊到测试,有的人说用Excel就足以,通过Excel来维护测试用例,每次产品发布,按照Excel里面的用例,把产品功能过一遍,这样做也没问题,但是你想过没有,随着项目的迭代,复杂度的增加,Excel的缺点就显而易见了,工作的效率及其低下,并且不能多人合作,用例的版本维护也是乱七八糟,并且无法与缺陷做到实时关联,可以说用Excel来测试的团队,是那种及其小的团队,一个测试人员而已,或者没有专门的测试人员,由产品来代劳。

而在一些稍具规模的公司,基本上都会选择一个成熟的测试管理工具来管理整个测试任务,多人协作,包括用例评审,讨论,版本,测试和需求,缺陷的关联,测试报告以及后续的统计分析,能更好的支持反馈和跟踪,持续提高产品的质量,保证产品的稳定性,然而测试管理工具非常多,功能也不尽相同,如何能选出一款符合自己的测试管理工具就需要各种调研。

所以这里对主流测试管理工具进行了分析对比:

6大主流测试管理工具对比

1PingCode

国内近几年最受欢迎的测试用例管理工具之一,替代TestLink、SVN的热门选择。

PingCode 具有成熟的功能,不错的操作体验,还是一站式的研发项目管理软件。能够帮助团队把控测试质量、管理测试过程、实现团队内外部的协同。

具体测试管理功能包括:测试用例库管理、编写用例、用例维护、测试规划与执行、关联用户故事与缺陷、测试报告与测试报表、关联自动化测试工具,掌握测试进度和执行结果情况等等能力。

最让我喜欢的是,PingCode 支持用例自定义,这对于对扩展有情结的人来说非常重要,因为业务是多变的,多给自己留点空间,同时用例导入这块支持脑图的导入、支持代码工具git、CI/CD工具jinkens等也是非常吸引我的。

优点

用户体验非常友好、简单易上手;

功能全面,一站式研发管理,支持测试关联缺陷、用户故事、文档、CI/CD等;

大数据模式支持友好、多维度规划测试计划、测试用例版本控制

为25人以下团队免费提供基础版本,收费版价格仅为国外产品Jira的30%-40%;

国产化,支持信创、麒麟等;

支持私有部署、定制化以及saas等购买方式;

缺点

在自动化测试方面功能比较弱

PingCode 官网

2TestRail

TestRail是基于web下的用例管理系统,只需要通过浏览器即可访问TestRail。Testrail支持独立的用户管理,也支持集成LDAP。开通LDAP集成服务后直接使用AD账号登录,无需单独开通权限

优点

具有三种测试用例管理方式:普通,基线(类似Git分支),多套件;根据创建的测试场景执行测试,例如可自定义浏览器、操作系统等;可集成众多缺陷追踪工具,如JIRA,GitHub,YouTrack等;提供Saas在线模式和独立部署版本;开放API。

缺点

三种用例组织方式中使用较复杂(仅普通方式较好理解和使用);交互设计较旧,10年前技术;SaaS版在国内访问速度很慢;价格较高。

官网: https://wwwgurockcom/testrail/ 

3Testlink

TestLink是一个用于管理测试过程并提供统计分析的开源软件。该软件发布于sourceforge,并采用Web界面交互,可以进行自动化的测试用例运行,并将测试结果生成报表并归档。

优点

开源免费具有一定的扩展性;

可集成众多缺陷追踪工具,如Jira、Redmine等;

提供需求管理;

用例可关联需求,并统计覆盖率。

缺点

不能把用例导出为Excel;

交互非常原始,难用;

界面不符合绝大部分中国人审美(极丑)。

官网: https://testlinkorg/ 

4Zephyr+Jira

Zephyr for Jira可促进任何Jira项目的测试管理功能。使用Zephyr,可以在Jira内部创建测试(测试用例),并在需要时执行,或者作为测试周期的一部分。通过一些自定义(使用适当的小工具),可以查看和跟踪详细的测试指标。

优点

作为Jira插件存在,也提供SaaS版独立运行;

测试中创建缺陷非常便利;

提供测试循环操作;

提供多种报表。

缺点

不提供与其他第三方缺陷工具集成;

Jira的SaaS版本国内访问较慢(独立部署的Jira版比较吃服务器资源)。

官网:Atlassiancom

5TestCenter

TestCenter(简称TC)一款广受好评的测试管理平台,让测试工作更规范、更有效率,实现测试流程无纸化,测试数据资产化。

优点

国产软件,中文支持友好;自带Bug管理;支持测试需求管理;提供工时系统模块,提供测试人员绩效分析。

缺点

需要先设计需求–设计场景—最后才能设计用例;用例执行操作较复杂;独立部署运行在WIndows系统上,官方帮助文档未提供Linux安装途径说明;基于Java+Flash(Flash在现代浏览器中已不推荐)。

6飞蛾

飞蛾是一款集测试用例管理、测试过程管理、测试项目管理、测试结果管理、测试报告管理一体的测试管理工具。 飞蛾团队参照了国内外的测试管理工具的优缺点,并结合了国内测试工程师的工作习惯,研发了一款适合国内测试团队的测试管理工具。

优点

实时绘制项目进度甘特图;实时协同,测试工作在一个实时界面中,自动更新状态,协同效率高;里程碑概念符合现代敏捷开发趋势;支持集成第三方缺陷工具(Jira、Readmine、Trello等);交互设计很亮眼,操作效率极高,非常值得推荐。

缺点

不兼容老浏览器,只支持主流的现代浏览器;模块不是无限级的。

官网: https://feiework/ 

总结

以上工具大部分都适用中小测试团队,较大团队使用的工具我没有去研究,这些工具也都较重,比方说惠普的ALM、IBMRationalQualityManager等(其实就是贵,土豪请随意)。针对自己团队情况可根据功能、软件开放性、价格、协作效率、交互设计等维度选择需要的工具。

这种就类似于云计算等后端基础服务的测试,对于一些大的公司,会有一个专门的团队来开发这种后端基础服务,这种服务当然也需要测试人员来保证质量。

这类服务一般都是通过HTTP接口的方式提供给刚才讲的WEB/APP的后端使用,所以,第一个要做的也就是接口测试,也就是用Postman等工具做手工测试、用TestNG+HttpClient或者Python的Nose框架做自动化测试。

不过,对于这类后端服务来说,接口只是暴露给外用的部分,内部逻辑通常是非常复杂的,所以,除了针对接口做测试之外,测试人员还需要细致地了解这些服务端产品的技术框架及技术实现,需要了解到模块的级别,对于系统框架图、时序图等都有很好的理解。针对这些理解去设计用例,再跟开发一起讨论如何实现用例。

如果这种基础服务用了某一个开源软件,那通常也需要测试人员能关注社区的进展,并把我们发现的Bug及解决方案等推到社区,为社区做贡献。

除了接口测试之外,在我们公司,异常测试、稳定性测试、性能测试也是服务端测试必备的测试类型。

异常测试会模拟各种异常情况,比如硬件异常-机器挂掉的情况下能否启动备机、硬盘挂掉的情况下是否会丢失数据;网络异常-网络忽然断掉、或者网络流量变小的情况;系统异常-操作系统忽然挂掉的情况。这些极端的情况出现的时候,我们需要验证数据有没有丢、能不能尽快启动备机对外提供服务、系统状态有没有异常等。我们会采用各种方式或者工具来模拟这些异常,比如用TrafficControl工具来控制网络流量。

稳定性测试,就是模拟系统在724的运行下会不会出问题,一般会用接口测试或者性能测试用例不断地跑,在运行期间,我们会模拟各种情况,比如说负载的变化、系统的各种干扰等。可以用ChaosMonkey等工具来进行这类测试。

性能测试,其实细分起来会有各种类型,比如负载测试、压力测试、配置测试、甚至还有线上压测、容量规划等。最常规的性能测试,一般是先规定一个系统需要承受的压力,比如说,某一个系统,1个小时之内会有1W单的单子,那基于这个需求我们分析服务器后端需要承受的压力,分析出来以后,就写性能测试脚本,然后逐渐增加压测的力度,直到超过这个预定的压力。通常在这个测试过程中会发现各种问题,比如数据库索引没有建、线程池太小、系统异常等。需要解决了之后再加大压力测试。也是用Grinder/JMeter等工具来进行性能测试,不过难的不是这些工具的使用,而是发现问题以后的定位。

对于这种后端服务的测试人员来说,技术上的要求是挺高的,需要有较好的编程能力,需要对数据库、操作系统等机制有很好的了解才行。

性能测试是通过自动化的测试工具模拟多种正常、峰值以及异常负载条件来对系统的各项性能指标进行测试。性能测试在软件的质量保证中起着重要的作用,中国软件评测中心将性能测试概括为三个方面:应用在客户端性能的测试、应用在网络上性能的测试和应用在服务器端性能的测试。

功能测试就是对产品的各功能进行验证,根据功能测试用例,逐项测试,检查产品是否达到用户要求的功能。一般从软件产品的界面、架构出发,按照需求编写出来的测试用例,输入数据在预期结果和实际结果之间进行评测,进而提出更加使产品达到用户使用的要求。

扩展资料:

性能测试的原则

1、情况许可时,应使用几种测试工具或手段分别独立进行测试,并将结果相互印证,避免单一工具或测试手段自身缺陷影响结果的准确性;

2、对于不同的系统,性能关注点是有所区别的,应该具体问题具体分析;

3、性能调优过程中不宜对系统的各种参数进行随意的改动,应该以用户配置手册中相关参数设置为基础,逐步根据实际现场环境进行优化,一次只对某个领域进行性能调优,并且每次只改动一个设置,避免相关因素互相干扰;

4、调优过程中应仔细进行记录,保留每一步的操作内容及结果,以便比较分析;

5、性能调优是一个经验性的工作,需要多思考、分析、交流和积累;

6、尽可能在开始前明确调优工作的终止标准。

-性能测试

-功能测试

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 基于LINUX环境的自动化测试的研究应用

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情