京东物流常态化压测实践 | 京东云技术团队

京东云开发者
• 阅读 546

作者:京东物流 刘江波

一、常态化压测建设目的

为什么做常态化压测?

目前面临主要问题,性能问题滞后发现,给大促带来不可控风险。目前日常需求频繁迭代,系统配置的变更、上下游依赖的变化、服务器资源置换等诸多因素均会对系统性能产生一定影响;日常很难做到对所有新项目或需求上线前后都进行压测,这就往往导致了很多性能问题推迟到大促压测期间才被发现。

大促备战压测备战时间紧、任务多,压测备战压力较大, 在11.11复盘中,有些部门工时统计中,压测占了较大一部分工作量。而且性能问题相较于其他问题,优化难度大、修复周期长,在大促备战多专项并行资源紧张情况下,频繁的系统调优给整个大促带来不可控的风险因素。

基于此,引入常态化压测的手段,通过每周或每月的定期压测行为,持续把控系统性能表现,保证服务稳定性;同时将需求上线引起的性能问题前置暴露及时定位优化问题;减轻备战压力,提升压测效率。

二、常态化压测实施流程

2.1 常态化压测

常态化压测是按照一定周期或特定触发条件而进行的自动化压测行为,通过在单容器/集群的周期性压测,从而达到监控性能指标变动、及时发现服务性能衰减风险的目标。

2.2 实施策略

通过三步走的方式,由浅入深,逐步在平台技术部落地常态化压测:

第一步 单机试点: 由于初次使用常态化压测,通过隔离单机环境的方式,了解了常态化压测的压测思路、执行流程、压测平台能力支持及风险点摸排;

第二步 集群试点:在履约、基础平台选择星级核心服务, 在线上环境试点小集群(2-3台)常态化压测任务执行,从线上业务影响、上下游依赖影响、压测平台能力支持、线上压测风险管控等多方面评估常态化压测在线上集群落地的可行性;

第三步 全面展开: 根据履约、基础平台的线上常态化压测集群实践,推广至全平台技术部并结合Kit压测工具,建立核心服务性能数据看板,统计汇总压测结果性能报表,使服务性能趋势可视化展现;开通大促压测绿色通道,常态化压测达标的服务,大促压测绿通。

2.3 实施流程

常态化压测接口:优先选择覆盖业务主流程的核心接口,ops-review的核心服务中星级认证的接口。

压测模版任务选择基准:

1)根据大促生产峰值流量模型结合服务器资源使用情况设置压测模版任务;

2)梳理链路依赖接口调用,按照最差下游依赖的承载上限并结合自身接口性能从调用量的角度设立压测模板;

3)对于没有下游依赖的服务,按照系统自身最佳处理能力,从吞吐量或cpu角度设立压测模版;

压测频率:链路长复杂接口,建议每天执行;自闭环的系统推荐按照上线频率执行。

压测窗口期: 和产研确认业务低峰期间,指定常态化压测任务的执行时间。

压测环境: 生产环境单机或者小集群进行常态化压测。

压测数据: 建议使用R2录制线上的真实流量作为常态化压测的入参,保证压测结果的有效性。

压测结果: 每次压测结果测试同学值班跟进,对不达标的接口,行云bug持续跟踪,协同研发进行性能分析、问题排查、压测任务维护。

京东物流常态化压测实践  | 京东云技术团队

压测工具:forcebot常态化压测及R2

三、常态化计划

•2023-Q1在履约、基础进行常态化压测试点,形成最佳实践,并进行技术赋能分享。

•2023-Q2季度推广至平台技术部-配运和交易条线,618大促前平台技术部完成核心0级读服务125个基于jdos3.0的常态化压测建设。

四、基于流量录制的高保真压测

双十一大促刚过,在大促备战时很重要的一个环节是对各大核心服务系统进行压测,以保证系统在大促期间的稳定性,同时根据压测结果为大促扩容提供数据支持。那么如何进行高保真压测,使压测结果更接近于线上真实性能表现?在整个压测过程中,压测数据的准备是其中非常重要的环节,很大程度上决定了压测结果是否真实可靠;

随着业务的不断发展,不仅用户流量、业务场景越来越复杂,服务的调用关系和模块也越来越繁多,数据构造越来越困难,简单的数据集无法模拟线上真实的业务流量,流量配比不真实容易导致压测结果失真。

目前各大公司进行模块级压测或者全链路压测基本都是采用流量录制的方式,先对录制的流量进行存储,然后对流量进行编辑、过滤后通过压测引擎向被测服务发压;本章结合Forcebot压测平台,详细介绍如何使用R2平台录制线上流量进行高保真压测。

4.1 流量录制压测

利用R2平台录制线上流量进行压测的基本框架图如下所示:

京东物流常态化压测实践  | 京东云技术团队

1、用户访问线上服务,产生基于用户的真实流量;

2、测试人员在泰山平台R2工具管理端创建录制任务,任务启动时下发操作指令到ducc,再通过ducc下发录制指令到线上服务端(线上服务已经开启pfinder并接入R2平台),开始录制线上流量;

3、录制的流量会上报至R2工具端,并且将采用数据进行存储;

4、流量录制完成后,可以在Forcebot压测工具平台创建压测脚本,Forcebot平台已经和R2平台对接,请求R2服务端获取回放流量地址,进行录制流量装载;

5、Forcebot平台获取到流量后,即可以正常通过压力机向被测服务发压,执行压测任务。

4.2 录制压测流量

根据系统架构及压测场景分析,选择需要录制流量的接口及场景。

•若压测时仅考虑单个接口,那么录制单个接口流量即可;

•而有的应用是多个核心接口,需要混合场景压测,在录制流量时需要同时对多个接口流量进行录制;

•当然,你也可以在录制任务中设置仅录制请求或响应符合某种特定业务场景的流量;

① 创建压测流量录制任务:选择入口应用,设置录制任务的名称及文件大小,注意:一般在进行压测流量录制时,建议录制所有场景流量,尽可能地高保真生产实际流量;在创建录制任务时,建议录制文件大小不高于2G;

京东物流常态化压测实践  | 京东云技术团队

流量录制策略包含了手动录制、定时录制及周期性录制。在进行常态化压测时,为了避免流量过于老旧与当前生产流量偏差较大,可以在R2平台上创建一个周期录制流量的任务,按天或按周录制一遍生产流量,以保证压测数据的即时性。

京东物流常态化压测实践  | 京东云技术团队

② 选择要录制的起始服务,可以选择多个接口同时录制,平台会展示出接口调用链路,可以针对调用链路上的服务或中间件等同时开启录制,然后选择录制的实例,设置后任务之后就可以开始执行录制。

京东物流常态化压测实践  | 京东云技术团队

京东物流常态化压测实践  | 京东云技术团队

流量录制完成后,即可在forcebot压测平台创建压测脚本;

4.3 压测脚本创建

4.3.1 单接口压测脚本

在脚本管理中创建一个JSF回放脚本,编辑录制信息配置,选择要压测的应用、对应的R2录制流量任务,Forcebot支持在京东私服平台上搜索或者手动上传JSF文件(jar包),平台会自动然后解析jar包中的类和方法,调用jsfOpenApi获取接口别名和直连的ipPort。通过以上方式获取接口服务相关信息,快速搭建jsf接口的环境。选择要压测的接口、jsf别名以及压测的方法后自动会生成压测脚本;生成的脚本中默认关联了选择的R2录制任务中的录制请求,可以直接进行压力测试。

如下图所示,你可以进行内网环境校验,可以校验脚本是否能正常获取到流量并向对应接口发起了实际请求,这也是压测前的必要步骤,验证脚本通过之后进行保存,就自动生成了相应的脚本及lib文件;如果是单接口场景压测,到这里就可以使用该脚本去创建压测任务了。

京东物流常态化压测实践  | 京东云技术团队

值得注意的是,这种方式生成的脚本是不可编辑的,需要编辑脚本得自定义创建脚本;到这里,聪明的你一定想到了,这里页面仅能选择一个接口的其中一个方法,如果想要对同一个接口的不同方法或不同接口进行混合压测应该怎么办呢?不要着急,答案已经在路上了。。

4.3.2 多接口混合压测脚本

在实际生产中,我们的应用往往会提供多个接口,或者同一个接口上会提供不同的方法服务。我们在压测的时候如果仅仅按照单个接口来进行压测,这样的压测数据仅能反应单场景交易下系统本身的性能表现,而实际生产中,尤其是大促时,系统往往在同一时间需要处理多个接口请求,系统资源也是多个接口共享的,所以混合场景压测更能反映系统真实处理能力;

在进行混合压测前,需要首先明确各个接口场景在同一时间段内的调用量比例是多少,在创建压测脚本的时候,需要根据这个比例来设置每个压测场景下压力请求占比rate;

步骤1: 生成标准的JSF回放脚本

在自定义脚本之前,先按照3.3.1所述生成一个标准的JSF回放脚本,以及依赖的lib文件都会自动生成;

京东物流常态化压测实践  | 京东云技术团队

步骤2: 生成自定义脚本

在步骤1中生成的默认脚本是不可编辑的,可以查看代码时生成自定义脚本,然后对自定义的脚本进行编辑。

京东物流常态化压测实践  | 京东云技术团队

① 首先定义接口路径及其方法,对应不同接口的别名,然后是根据不同的接口进行流量加载;

其中ipList是指定被压测的服务器ip及端口,如果接口别名下是集群部署,只想要对其中某一台机器进行压测的话,需要指定ip及端口;

京东物流常态化压测实践  | 京东云技术团队

② 针对不同的接口创建回放事务,此处接口路径、接口的加载流量、接口别名等都需要一一对应。rate为该脚本中涉及的多个接口的调用量比例,比如接口1:接口2:接口3=7:8:5(可参考大促或日常调用峰值期间各接口的调用量比例),则需要在testCase中设置相应的压力比。

京东物流常态化压测实践  | 京东云技术团队

③ 因为多接口涉及接口路径、流量源以及接口别名各不相同,需要将默认的无参doReplay方法,修改为传参方法

京东物流常态化压测实践  | 京东云技术团队

④ 脚本修改完成后点击保存

⑤ 相同接口不同方法的混合压测脚本创建同理,区别在于同一个接口,别名是一致的,不需要额外再指定其他接口别名;

步骤3: 导入附件jtm.properties

在步骤2中自定义脚本编辑完成后,进行校验执行时还无法成功,因为脚本还缺少流量录制回放的附件文档。保存脚本后,返回上一级目录,将步骤1中生成的标准groovy脚本中的附件jtm.properties下载到本地,然后再将该附件文档上传到我们自定义的脚本中,并修改脚本的附件文档。在附件文档末尾添加
jtm.replay.recent.record.num=1,指定每次压测时都获取绑定周期性流量录制任务最新录制的流量;

京东物流常态化压测实践  | 京东云技术团队

4.4 双十一大促高保真压测实践

有了R2流量录制平台提供的便捷,让获取线上流量不再成为难事,可以帮助我们快速的完成压测数据的准备,同时压测流量高保真还原实际业务场景。

在本次双11大促,物流promise业务线全面采用R2流量录制的方式进行大促压测,自压测结果更加接近线上接口性能,真实性达到90%以上;为大促资源扩容评估提供了更加精准的数据支撑。同时,通过这次高保真压测,我们发现多个系统性能问题,其中包含极限业务场景下的可用率降低的问题。

下图为采用R2流量录制压测、军演压测与双十一大促开门红的性能对比。

京东物流常态化压测实践  | 京东云技术团队

五、USF常态化压测实践

基于focebot的常态化压测能力,选择USF选择3星核心服务进行常态化压测实践,选择TOP4核心接口,使用R2的录制线上流量,根据大促的流量模型进行的混合场景常态化压测,持续监控USF的核心接口的性能情况。

forcbot常态化压测工具支持,压测任务复用(支持流量录制压测任务)、可配置性能基线包括响应时间TP99和TPS的和服务器CPU等资源指标设进行性能基线设置,并根据性能基线判断压测是否达标,以及可以设置不达标的压测结果自动创建行云缺陷,进行性能问题跟踪处理。并且还提供压测监控对比数据以及压测结果历史记录,便于对性能结果和问题进行分析,自动发送压测邮件通知,及时同步性能压测结果。

目前forcebot的常态化压测支持以下功能:

•1、支持压测任务的复用,可使用历史的压测任务,不用单独创建压测任务和脚本,支持jsf、http、自定义的jimdb、jmq以及回放脚本。

•2、可配置定时执行任务,灵活执行时间。

•3、可支持流量录制。

•4、可自动创建行云缺陷

•5、可配置压测的是否达标基线(生效:是否将指标用于压测达标率统计;勾选会作为指标之一,不勾选则在达标率计算时不作为统计指标。 达标:勾线生效的指标值同时满足时,压测结果即为达标;反之,有任何一个指标值不满足条件,压测不达标。

以下为基于USF进行的常态化压测。

5.1 压测物料准备

压测数据:

•选择业务高峰期14:00-16:00 录制线上10%对应6台机器流量,录制【公共集群】入参1G。(后续会考虑多个集群)

•录制接口服务是USF3.0线上TOP4的接口,已完成星标治理,达到三星的接口,完成可用率、TP99、以及有降级和限流方案治理。

压测场景: 混合场景设计(模型)

应用部署拓扑图:

京东物流常态化压测实践  | 京东云技术团队

压测环境:

压测环境目前是与线上同配置的单实例的UAT环境。

•与线上的现数据库、缓存保持一致,均已同步线上数据。

•压测环境数据库的配置和缓存服务的配置与线上保持一致。

1.线上机器配置 * 实例数60

2.应用服务器配置:4C8G

3.数据库配置:16C64G内存

4.压测机器配置

5.应用服务器配置:4C8G

6.数据库配置:16C64G内存

5.2 压测风险评估

•压测环境选择:

•1)先在同配置的UAT环境常态化压测,根据性能结果不断调整性能基线

•2)稳定后再复用生产环境的应用和中间件进行常态化压测。

•任务执行窗口:

•选择业务低峰期进行压测,结合ump监控USF服务的高峰期一般在白天的上午6-9、9-11、14-17系统使用的高峰期。所以目前任务执行的窗口期是工作日17:40。目前是有人值守的报警信息及时处理,监控应用和数据库相关情况。

•压测链路同步:

•压测上下游链路梳理,确定压测范围、压测量级、压测时间,同步相关方达成共识。

5.3 常态化压测任务创建

5.3.1 压测模版任务选择准则

•复用历史的压测任务(模版任务),直接创建常态化压测任务。实际选用历史的压测任务场景时,建议根据系统的实际情况来选择,一般可以选择性能拐点场景或者压到预期值的场景(如CPU60%或者TPS达标),一般建议不要压测系统资源饱和的状态场景。

•示例:此处USF我们选用历史的压测任务,是接口满足双十一的吞吐TPS的场景,此时服务器的CPU压力在27%,数据库的CPU在36%。

模版任务选择:

京东物流常态化压测实践  | 京东云技术团队

京东物流常态化压测实践  | 京东云技术团队

查看任务,可以看到该场景下的执行的脚本,发压相关设置并发线程数、执行的模式(并发模式和RPS模式)、执行时间,可根据需要进行一定的调整。

京东物流常态化压测实践  | 京东云技术团队

5.3.2 压测定时任务设置

•可以通过周期或者Cron表达式指定执行周期,usf此处使用Cron :0 40 17 * * ? 每天下午5点40执行。并在此处设置目标线程数和执行时长。(这个会覆盖压测任务中的线程数和执行时长)。

•常态化压测执行的频率以及执行的时间参考根据代码上线周期和业务的调用低峰时间段综合定制。

京东物流常态化压测实践  | 京东云技术团队

1)执行模式-RPS模式

绑定的是压测任务是RPS,那么我们创建的常态化压测任务也是RPS模式。目标QPS设置,并非脚本中所有接口的QPS的和,而是脚本中占比最大的接口对应的压测目标值,如果配置错误会导致过度发压。

京东物流常态化压测实践  | 京东云技术团队

2) 执行模式-并发数模式

绑定的压测任务是并发模式,那么我们创建的常态化压测任务是并发执行模式。目标线程数设置。

京东物流常态化压测实践  | 京东云技术团队

5.3.3 压测基线设置

•根据压测任务对应的压测场景,根据事务名称(接口方法)设置合理的压测基线,如果关联的压测任务是混合脚本,那么可以分步骤设置多个接口事务(事务名称默认:forcebot.测试方法名 )的性能基线。 一般关注的指标平均TPS、TP99、错误数、CPU监控。允许波动的范围,根据接口的实际情况给一定的波动空间。若大于设置的波动范围,并且选中设置提交行云缺陷,就会自动提交行云bug,便于bug跟踪闭环。

•基线指标设置注意点:如果基线值特别低的情况,那允许的波动范围百分比需要设置的比较大才可以,否则很小的波动都会被认为压测不通过。基线波动范围,具体接口具体分析,研发和测试达成共识,

1) 自定义性能基线设置

•USF的findUserInfo服务设置示例:

•TPS基准值=2700,允许波动范围10%。(2430-2970) 上下浮动

•TP99基础值=12ms,允许波动范围50%。(12ms-18ms) 上浮动,时间相关的是向上浮动。

•错误数基准值=0,允许波动范围0。

•CPU监控基线值=25%,允许波动范围=20%。(20%~30%)上下 浮动

京东物流常态化压测实践  | 京东云技术团队

事务名称: 目前无法自动识别,可以写脚本的中事务名称默认是forcebot.测试方法名,也可以增强脚本使用自定义事务名称就是
TestUtils.transactionBegin("findUserInfo"),即findUserInfo

性能基线设置例如:接口性能tp99在12ms左右,此时基线值设置为12ms,允许波动的范围如果设置为10%,那允许的波动范围就是12ms*10% = 13.2ms,超过13.2ms就认为压测不通过,这显然是不合理的,此时需要根据我们的接口tp99最大接受范围来设置允许波动百分比。

2) 多接口性能基线设置

自定义基线设置中,可以添加多个接口事务,该事务就是脚本中的事务名称。

默认事务名称:forcebot.测试方法名

京东物流常态化压测实践  | 京东云技术团队

自定义事务名称: 如TestUtils.transactionBegin("findUserInfoByOrgCode");

京东物流常态化压测实践  | 京东云技术团队

5.3.4 行云缺陷跟踪

对于不满足性能基线设置各项指标值,常态化压测结果就为不达标,若该任务配置开启了自动创建行云缺陷,就会对不达标的执行结果自动提交行云缺陷,这样可以保证bug生命周期各阶段可追溯,保证问题及时处理解决。

京东物流常态化压测实践  | 京东云技术团队

5.3.5 监控定位问题

可以查看一段时间该服务的性能趋势,如果接口性能波动较大,需要进一步排查接口性能下降的原因。

1) 监控数据-TPS

京东物流常态化压测实践  | 京东云技术团队

2) 监控数据-TP99

京东物流常态化压测实践  | 京东云技术团队

3) 执行记录对比详情PK

执行记录中,有脚本版本和,是否达标以及bug详情。选中达标和不达标的结果,进行PK对比,对比项中有TPS、TP99、Error Per Second等指标。

USF相关接口的压测结果,达标和不达标的PK如下:发现是12-04存在一次错误调用,进一步跟踪错误产生原因

京东物流常态化压测实践  | 京东云技术团队

京东物流常态化压测实践  | 京东云技术团队

5.3.6 邮件发送压测结果

设置接收人邮箱,将邮件抄送给研发和测试相关人,压测结果邮件中会提供压测数据汇总显示,如果压测结果中某一项指标不达标时(超出设定值及波动范围)时,则此次任务视为不达标。结合监控信息以及执行时间段的日志与研发共同定位问题或者是性能基线指标的调整。

京东物流常态化压测实践  | 京东云技术团队

邮件如下:

![](https://img-hello-world.oss-cn-beijing.aliyuncs.com/c4c0801d9bf87d88063782eb408bdc0c.pngliu

点赞
收藏
评论区
推荐文章
blmius blmius
2年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
Wesley13 Wesley13
2年前
FLV文件格式
1.        FLV文件对齐方式FLV文件以大端对齐方式存放多字节整型。如存放数字无符号16位的数字300(0x012C),那么在FLV文件中存放的顺序是:|0x01|0x2C|。如果是无符号32位数字300(0x0000012C),那么在FLV文件中的存放顺序是:|0x00|0x00|0x00|0x01|0x2C。2.  
Wesley13 Wesley13
2年前
mysql设置时区
mysql设置时区mysql\_query("SETtime\_zone'8:00'")ordie('时区设置失败,请联系管理员!');中国在东8区所以加8方法二:selectcount(user\_id)asdevice,CONVERT\_TZ(FROM\_UNIXTIME(reg\_time),'08:00','0
Wesley13 Wesley13
2年前
PHP创建多级树型结构
<!lang:php<?php$areaarray(array('id'1,'pid'0,'name''中国'),array('id'5,'pid'0,'name''美国'),array('id'2,'pid'1,'name''吉林'),array('id'4,'pid'2,'n
Wesley13 Wesley13
2年前
Java日期时间API系列36
  十二时辰,古代劳动人民把一昼夜划分成十二个时段,每一个时段叫一个时辰。二十四小时和十二时辰对照表:时辰时间24时制子时深夜11:00凌晨01:0023:0001:00丑时上午01:00上午03:0001:0003:00寅时上午03:00上午0
Wesley13 Wesley13
2年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
京东云开发者 京东云开发者
4个月前
谈谈压测方案的那点事 | 京东物流技术团队
前言在现阶段大促备战的压测不算是一件新鲜事,已经不存在什么技术瓶颈或者资源问题,每个团队都有很多人能够执行性能测试,在一些团队也已经落地了日常常态化,但压测也没有简单到只在压测平台上设置参数、运行脚本,然后去看压测报告中某个指标是否满足压测目标那么简单,我
京东云开发者 京东云开发者
4个月前
00后如何组织双十一大促看这一篇就够了! | 京东云技术团队
引言大家好,我是王蒙恩,一名“整顿职场”的00后。作为一名去年刚刚加入京东的校招生,我有幸成为本次CDP平台的11.11备战负责人。虽然早在实习的时候就经历过大促,但是真正组织整个部门的备战还是很难忘的。于是提起笔,给自己做一个大促总结,记录下11.11大
京东云开发者 京东云开发者
4个月前
大数据平台红蓝对抗 - 磨利刃,淬精兵! | 京东云技术团队
一、背景目前大促备战常见备战工作:专项压测(全链路压测、内部压测)、灾备演练、降级演练、限流、巡检(监控、应用健康度)、混沌演练(红蓝对抗),如下图所示。随着平台业务越来越复杂,红蓝对抗的作用愈来愈明显,下面将详细介绍大数据平台在本次双十一大促备战工作中是
京东云开发者 京东云开发者
2个月前
大数据平台红蓝对抗 - 磨利刃,淬精兵!
背景目前大促备战常见备战工作:专项压测(全链路压测、内部压测)、灾备演练、降级演练、限流、巡检(监控、应用健康度)、混沌演练(红蓝对抗),如下图所示。随着平台业务越来越复杂,红蓝对抗的作用愈来愈明显,下面将详细介绍大数据平台在大促备战工作中是如何开展红蓝对