1、XXX门户网站性能测试报告 XXX门户网站性能测试报告 目录第一章概述4第二章测试活动42.1测试用具42.2测试范围42.3测试目标52.4测试方法52.4.1基准测试52.4.2并发测试62.4.3稳定性测试62.5性能指标62.6性能测试流程6第三章性能测试环境73.1服务器环境73.2客户端环境83.3网络结构9第四章测试方案94.1基准测试94.2并发测试114.3稳定性测试13第五章测试结果描述145.1性能测试观察指标145.2性能测试通过指标15用户体验性能155.3测试结果15第六章测试报告系统测试公范围:基准测试阶段,并发测试阶段, 稳定性测试,浪涌式测试。156.1基准测
2、试性能分析166.2并发测试性能分析216.3稳定性性能测试分析24摘要本文档主要描述XXXX门户网站检索和页面浏览性能测试中的测试内容、测试方法、测试策略等。修改历史日期版本作者修改内容评审号更改请求号2016-01-141.0测试组新建。性能测试2016-01-141.0测试组修改性能测试回归2016-01-141.0测试组更新注释:评审号为评审记录表的编号。更改请求号为文档更改控制工具自动生成的编号。第一章 概述由于当前对系统要接受业务量的冲击,面临的系统稳定、成熟性方面的压力。系统的性能问题必将成为焦点问题,海量数据量的“冲击”,系统能稳定在什么样的性能水平,面临业务增加时,系统抗压如
3、何等这些问题需要通过一个较为真实的性能模拟测试来给出答案,通过测试和分析为系统性能的提升提供一些重要参考数据,以供后期系统在软硬件方面的改善和完善。本性能测试报告即是基于上述考虑,参考当前的一些性能测试方法而编写的,用以指导即将进行的该系统性能测试。第二章 测试活动2.1测试用具本次性能测试主要采用HP公司的Loadrunner11作为性能测试工具。Load runner主要提供了3个性能测试组件:Virtual User Generator, Controller,Analysis。l 使用Virtual User Generator修改和优化脚本。l 使用Controller进行管理,控制
4、并发的模拟并发数,记录测试结果。l 使用Analysis进行统计和分析结果。2.2测试范围此次性能测试实施是对xxxxxx门户网站系统性能进行测试评估的过程,我们将依据系统将来的实际运行现状,结合系统的设计目标和业务特点,遵循着发生频率高、对系统或数据库性能影响大、关键和核心业务等原则选取需要进行测试的业务,模拟最终用户的操作行为,构建一个与生产环境相近的压力场景,对系统实施压力测试,以此评判系统的实际性能表现。根据与相关设计,开发人员的沟通和交流,本次测试主要就是针对大量用户在使用XXX门户网站进行信息查询,而选取的典型事务就是用户使用检索进行关键字搜索以及界面浏览和反馈回搜索结果,这是用户
5、使用最频繁,反应最多的地方,也是本系统当前以及以后业务的一个重要压力点所在。所以本次测试只选取检索业务的性能情况和界面浏览进行记录和分析。2.3测试目标本次测试是针对XXXX网站检索和页面浏览在迎接大业务量的压力下而进行的,主要需要获得如下的测试指标。1、系统的稳定负载能力:即在正常的响应时间中,系统能够支持的最多的客户端的数量,例如:找到用户可容忍的基本响应时间为5秒时,系统的支持用户数。2、系统的极限负载能力:即在某个较长的响应时间,客户主观上已无法容忍的情况下,系统能够支持的最多的客户端的数量。3、系统的无故障运行时间:即在得出系统的最合理的响应时间和支持响应的客户端数量该前提下,无故障
6、运行时间,暂定8-12小时。2.4测试方法总体方法:使用美科利公司(Mercury)的性能测试软件Load Runner,对现行的系统检索,页面预览进行脚本录制、测试回放、逐步加压和跟踪记录。测试过程中,由Load Runner的管理平台调用各台测试前台,发起检索查询请求,并跟踪记录服务器端的运行情况和返回给客户端的运行结果。此次性能测试在http:/www.xxxxxx进行,环境在服务器软件、硬件上与生产环境保持一致,数据库结构和真实环境数据库结构一致,只是在网络带宽上有一定的区别,实际外网带宽会有所不足。本次将进行基准测试,并发数测试,稳定性测试3种类型测试,并对主要测试指标进行记录和分析
7、。2.4.1基准测试基准测试在系统无压力(外界环境,服务器无额外服务运行,无额外监控进程运行)的情况下,取得各项事务和业务的系统并发用户数和平均响应时间作为分析衡量标准,用于初步诊断系统是否存在性能瓶颈。2.4.2并发测试没有明确的系统性能指标前提下,用Load runner模拟多用户同时向服务器发起交易请求,运行过程中每个用户没有思考时间(Think Time)的情况下持续提交交易请求,向系统施加压力。2.4.3稳定性测试重点测试支付系统在业务高峰期压力下运行的稳定性。2.5性能指标在本次性能测试,由于没有具体和明确的性能指标,所以各类测试指标包括测试中应该达到的某些性能指标和相关服务器的性
8、能指标,都应该受到以下三个基本条件的约束。 业务执行的平均响应时间(期望值:= 5s) CPU利用率小于75% 内存Paging rate状态未持续处于高位运行2.6性能测试流程通过自动化测试工具模拟最终用户向服务器发起业务请求,进行性能测试。通过测试工具对测试过程中系统各点进行监控,每一次测试结束后工具自动生成结果报告供分析使用。2.7测试术语1) 系统的响应时间:即在各种负载压力情况下,系统的响应时间,也就是从客户端交易发起,到服务器端交易应答返回所需要的时间,包括网络传输时间和服务器处理时间。2) 应用系统的吞吐量:即应用系统在单位时间内完成的交易量,也就是在单位时间内,应用系统针对不同
9、的负载压力,所能完成的交易数量。3) 应用系统的负载能力:即系统所能容忍的最大用户数量,也就是在正常的响应时间中,系统能够支持的最多的客户端的数量。4) 缩略语:Vuser,Transaction,TPSVuser虚拟用户Virtual user,模拟真实业务逻辑步骤的虚拟用户,虚拟用户模拟的操作步骤都被记录在虚拟用户脚本里。Vuser 脚本用于描述 Vuser 在场景中执行的操作。Transaction事务 事务是性能测试脚本的一个重要特性。要度量服务器的性能,需要定义事务,每个事务都包含事务开始和事务结束标记。事务用来衡量脚本中一行代码或多行代码的执行所耗费的时间.可以将事务开始放置在脚本
10、中某行或者多行代码的前面,将事务结束放置在该行或者多行代码的后面,在该脚本的虚拟用户运行时,这个事务将衡量该行或者多行代码的执行花费了多长时间。TPS每秒事务数(Transaction Per Second) 每秒钟系统能够处理的交易或事务的数量,它是衡量系统处理能力的重要指标。TPS 是 Load Runner 中重要的性能参数指标。第三章 性能测试环境3.1服务器环境数据库服务器:服务器型号:IBMCPU: 8核Intel(R) Xeon(R) CPU E5-2650 v2 2.60GHz内存:32GB系统盘:云磁盘数据盘:云磁盘 操作系统: 应用软件:3.2客户端环境资源描述数量Load
11、 runner 11主要性能测试工具1Office 2007用于记录测试数据2Windows XP SP3,Windows7测试客户端系统1IE10,Firefox及其组件测试客户端应用软件1PC测试计算机23.3网络结构网络拓扑和结构图如下:第四章 测试方案本次性能测试主要模拟测试的事务:用户信息浏览检索用户提交查询关键字数据到后台,系统收到查询请求并检索、返回结果数据;l 性能测试观察指标:Bs结构程序一般会关注的通用指标如下:Web服务器指标指标:* Avg Rps: 平均每秒钟响应次数=总请求时间 / 秒数;* Successful Rounds:成功的请求;* Failed Roun
12、ds :失败的请求;* Successful Hits :成功的点击次数;* Failed Hits :失败的点击次数;* Hits Per Second :每秒点击次数;* Successful Hits Per Second :每秒成功的点击次数;* Failed Hits Per Second :每秒失败的点击次数;* Attempted Connections :尝试链接数;l 执行每个场景时记录以下相应的数据: 业务执行的平均响应时间 每秒事务数 运行的并发用户数目 网络吞吐量4.1基准测试场景:(历史数据有1000条以上)1. 使用Load runner模拟50用户请求交易,每个用
13、户没有时间间隔(Think Time)的情况下反复提交交易并返回结果,直到全部执行退出系统。记录平均事务响应时间,每秒事务数,吞吐量。2. 记并发数改为100,同时加压,同时结束压力,重复上述测试步骤。3. 并发数改为200,重复上述测试步骤。4. 当响应时间大于期望时间,或者服务器指标超过预订设置时将停止测试。备注:以上测试均进行3次,来保证测试结果的有效性和准确性。4.2并发测试场景:(历史数据有1000条以上)1. 使用Loadrunner模拟50用户请求交易,每个用户没有时间间隔(ThinkTime)的情况下反复提交交易并返回结果,持续时间分别为10分钟, 15分钟,20分钟,记录平均
14、事务响应时间,每秒事务数,吞吐量。2. 记并发数改为100重复上述测试步骤。3. 并发数改为200,重复上述测试步骤。4. 当响应时间大于期望时间,或者服务器指标超过预期设置时将停止测试。备注:以上测试均进行3次,来保证测试结果的有效性和准确性。3次执行时间分别为10分钟,15分钟,20分钟。4.3稳定性测试测试方法:采用业务中合理、适度的用户使用场景,对系统进行时间为8-12 小时的稳定性测试。记录每次服务的平均响应时间,交易的正确率,考察服务器是否宕机,交易正确率小于95%等情况。稳定性测试的用例如下:场景:(历史数据有1000条以上)1. 使用Loadrunner模拟200个并发用户请求
15、交易,每个用户有一定时间间隔(ThinkTime)1秒的情况下反复点击页面和信息检索并返回结果,持续执行8-12小时(2016-1-14-20:30-2016-1-15-8:30)共计69688)每秒5次以上的点击和检索,记录平均事务响应时间,每秒事务数,吞吐量。观察软件的稳定性以及各种性能指标的劣化趋势,要有效防止资源泄露。2. 当服务器出现资源泄露或者系统的资源耗尽等情况,交易正确率小于95%,停止测试。第五章 测试结果描述和分析6.1基准测试性能分析 设计50、100、200个用户并发,没有持续加压时间,直至执行完成。获取系统的各种表现。50个用户的测试信息统计:100个用户的测试信息统
16、计:200个用户的测试信息统计:1、 事务平均响应时间序号单项事务用户数响应时间(s)备注50100200总流程时间5.6435.7778.59450个用户的响应时间:100个用户的响应时间:200个用户的响应时间:从以上图中可以看出,服务器在50,100个并发的情况下所有事务都保持在5s左右,但稍微高于5s,应该有一定的上升空间。最大的问题在于并发数200后,处理时间已经在5s以上,达到8s。建议:优化请求响应模块以及检索应用模块,减少响应时间。2、 TPS (事务数/秒)50个用户的每秒事务数:100个用户的每秒事务数:200个用户的每秒事务数:从以上每个图中看到TPS达到峰值1后开始有下
17、降的趋势,基本上均在1个事物以下,这个数据并不理想,我们服务器的性能还没有充分发挥,现有硬件条件下还可以在单位时间内处理更多的事务数,建议在下一阶段进行优化提升。或者是网络不佳的情况导致该情况的出现。3、 吞吐量并发数Total Throughput (bytes)Average Throughput(bytes/second)50128,707,404347,858100257,386,009993,768200514,838,2262,394,59650个用户的吞吐量:100个用户的吞吐量:200个用户的吞吐量: 从图中可以看出总吞吐量随着用户的增加成正比的,数据交换正常。但是,在对网络带
18、宽,系统架构,硬件资源的合理分配后应该能发挥系统的更大处理能力。 6.2并发测试性能分析设计50、100、200个用户并发,分别持续10分钟,15分钟,20分钟,获取系统的各种表现。50个用户并发的测试统计信息(以10分钟为例):100个用户并发的测试统计信息(以10分钟为例):200个用户并发的测试统计信息(以10分钟为例):1、 平均事务响应时间测试用例响应时间(单位:秒)并发50持续5分钟14.009并发50持续10分钟15.31并发50持续15分钟11.178并发100持续5分钟16.318并发100持续10分钟14.143并发100持续15分钟15.675并发200持续5分钟24.8
19、59并发200持续10分钟24.997并发200持续15分钟26.34950个并发(以10分钟为例):100个并发(以10分钟为例):200个并发(以10分钟为例):从图中看出,并发用户数同时进行5分钟,响应时间就已经在10s以上了,随着并发用户数和持续时间的增加,响应时间变得越来越长,当200个并发的时候已经超过20秒,已经相对较慢,但是这只是实验室理论测试数据,在实际生产环境中过高的并发数和过长的持续压力时间这种极端情况很少。但是并发持续了5分钟这种情况下,我们的响应时间还是应该可以控制在5秒以内,使我们系统在较大的业务量的情况下可以提供较为满意的用户体验。导致这样的一种情况主要来自于网络
20、不佳造成(该问题并不是由于服务器端的网络不良,而是来自用户端的网络不佳导致)2、 TPS(事务数/秒)(以10分钟为例)测试用例TPS并发50持续10分钟3.086并发100持续10分钟6.260并发200持续10分钟7.18450个并发(以10分钟为例):100个并发(以10分钟为例):200个并发(以10分钟为例): TPS数值并不理想,它反映了服务器处理能力一般,没有充分发挥应用服务器的事务处理能力。建议:在下一个阶段需要优化。但是这个原因可能是由于网络带宽、前置接入系统处理能力较小,比如:连接数有所限制,所以最后到达核心应用服务器事务数较小,连锁导致最终事务处理能力上不去。3、 吞吐量
21、(以10分钟为例)测试用例Total Throughput (bytes)Average Throughput (bytes/second)并发50持续10分钟3,628,897,7475,416,265并发100持续10分钟7,096,275,50910,008,851并发200持续10分钟8,262,379,06911,120,29550个并发(以10分钟为例):100个并发(以10分钟为例):200个并发(以10分钟为例):在运行相同时间的前提条件下,随着用户翻倍的增加吞吐量没有明显增加。初步怀疑:网络带宽的限制,或者是前置接入系统的处理能力问题,请求并没有发送到核心应用服务器端去及时处
22、理。6.3稳定性性能测试分析本次测试使用Loadrunner模拟200用户请求交易,每个用户没有时间间隔(ThinkTime)的情况下反复提交交易并返回结果,持续执行8-12小时。1、 事务平均响应时间总流程响应时间8.529本次稳定性测试各个服务器没有出现宕机的情况,交易的正确率为99.99%。但是响应时间稍稍有点长了些,可以有进一步调优的空间,一般控制在5s以下为佳(导致响应时间较长主要来自于用户端网络不佳的情况导致并非服务器端的网络不佳)。第六章 测试结论对于最终用户来说,最关心的是用户操作的响应时间。基于基准测试:用户在50,100,200个逐步进行检索业务下,用户响应时间控制在5秒左右,是用户可以接受的程度。基于并发测试:虽然50,100乃至200个并发响应时间在6-8秒左右,但是这是理论实验室数据,经过逐步排查导致这种情况的出来来自于用户端网络不佳导致,并非服务器端网络不佳基于稳定性测试:200个并发用户8-12小时长时间进行检索查询业务,时间均等在6-8秒左右,说明在实际使用过程中,在没有200个并发用户,系统资源不会大量长期占用的前提下,系统响应时间是完全可以在5秒左右的。综上所述:本系统在实际使用过程中能基够满足用户的使用,出现个别错误和响应较慢主要来自用户端网络不佳(非服务器端)导致。第 36 页 共 36 页