话说做了一个产品需求上线后,涉及到有一个每日凌晨七点跑批任务,跑批查询出来的待处理订单也就1100单作用,但是耗时却花费了5~6分钟,虽说跑批中,又调用外部服务,但是仅仅在空闲时间,鉴于此情况
我觉得这个跑批任务有优化的空间,伴随着一次次性能优化,最终耗时优化到只需平均20多秒就跑批完毕,鉴于此,写一篇自己的优化过程分享给大家。
一、业务概述
话说我们产品需求有个每日凌晨七点,之所以为什么是定时,还要凌晨七点,那是由于在你跑批之前,中后台也有一步步跑批任务,只有等他们跑完任务,我们才能发起跑批调用,否则早的话,人家
的跑批任务没执行,你调用的时候只能是徒劳,这就是背景。话说,在最初技术方案调研时,通过微信电话本来想沟通一下,通过一些性能压测工具压测一下对方的接口性能,这样对于我们发起方也有 一个指标可以提供在技术实现中有所参考。但是呢,对方口述说,我们只是对决策平台,真正处理的是背后的数据引擎团队,他们的性能才是整个调用链路上的关键。想法很好,但最终没有压测。之所以 这个情况,是由于对方的数据只在生产环境提供,测试环境没有。所以不太好压测,毕竟压测的时间点不一样,结论也不一样。毕竟他们提供很多业务方调用,既然如此,我想着先按照他提供的一些指标 比如,秒级给出结果,不支持批量调用,只支持同步调用,不支持消息通知。这些结论使得我开始设计第一版技术方案,看看上线后的跑批耗时。
上面说了一大堆话,简言之概况如上图。中台的事情不做完,前台即便调度任务想要提前无济于事。所以在每天用户8、9点上班时,跑批任务就得生成工单。
二、上线版本
如上图,这是上线的第一个初步版本,第一次跑批1100多单,耗时了5~6分钟。当我告知给业务方,人家说,"不错了,还以为得跑半个小时"。然而,作为技术研发的我心中默默表示不甘心, 觉得对这个跑批性能,认为有改善的空间,否则随处时间流逝,待处理订单会越来越多,前期不改善,后期肯定耗时越来越长。
第一版方案处理的过程如下
1、调度平台配置一个job,每天凌晨七点调度调用我这边的一个服务(线上部署两个节点,跑批固定IP一台服务器)(假设A),A服务提供一个rest接口,接口实现异步去执行后续处理订单。
rest接口示例如下:
@Autowired
ScanningOrderTask scanningOrderTask;
@PostMapping("/disposeOrders")
@ApiOperation(value = "待处理订单跑批", notes = "待处理订单跑批")
@NoAuthRequired
public SiaResponse disposeOrders() {
scanningOrderTask.scanningOrder();
return SiaResponse.newInstance("待处理订单跑批成功!");
}
复制代码
ScanningOrderTask代码示例如下:
@Component
@Slf4j
public class ScanningOrderTask {
@Autowired
ExecutorService threadPoolExecutor;
@Autowired
DisposeOrderFacade disposeOrderFacade;
/**
* 订单跑谛听规则
*/
public void scanningOrder(){
log.info("##### [scanningOrder]待处理订单开始执行跑批处理 ####");
CompletableFuture.runAsync(() -> disposeOrderFacade.scanningOrders(), threadPoolExecutor);
}
}
复制代码
2、disposeOrderFacade#scanningOrders提供的业务伪代码实现如下:
public void scanningOrders(){
int start = 0;
int limit = 100;
StopWatch stopWatch = new StopWatch("scanningOrders");
stopWatch.start();
List<Object> disposeOrderList = 先查询第一页数据;
do{
List<DisposeOrder> repeatOrder = Lists.newArrayList();//二次重试需要再次重试订单
for(DisposeOrder order : list){
try{
operateStrategyManager.execute(operateContext);
}catch(Exception e){
//异常重试
operateStrategyManager.execute(operateContext);
//再次重试失败,则加入失败订单
if(再次重试失败){
repeatOrder(order);
}
}
}
//查询下一批 待扫描订单
start += limit;
param.setStart(start);
disposeOrderList = disposeOrderService.queryByPage(param);
if(CollectionUtils.isNotEmpty(repeatOrder)){
disposeOrderList.addAll(repeatOrder);
}
}while(list非空)
stopWatch.stop();
int batchSize = longAdder.intValue() - errorOrderSet.size();
long durationSeconds = (stopWatch.getLastTaskTimeMillis() / 1000);
log.info("##### [scanningOrder]跑批处理完毕,共计={}单,耗时={}s ####",batchSize,durationSeconds);
}
复制代码
3、决策引擎异步处理相关代码
public void operation(OperateContext context) {
//1、调用决策引擎
Result<AlarmDecisionRe> alarmDecisionResult = alarmDecisionManager.call(AlarmDecisionDTO.builder()
.appCode(context.getDisposeOrder().getAppCode())
.scenePhase(ScenePhaseEnum.LOAN_PROCESS.getIndex())
.build());
//2、决策输出的结果,再交由另外一个线程池 threadPoolExecutor(通用线程池)异步去处理。
CompletableFuture.runAsync(() -> handleAlarmResult(alarmDecisionResult.getData()), threadPoolExecutor);
}
复制代码
4、决策输出结果的异步处理相关代码
/**
* 处理规则校验结果`
* @param decisionResult
*/
void handleAlarmResult(AlarmDecisionRe decisionResult){
String appCode = decisionResult.getAppCode();
StopWatch stopWatch = new StopWatch("handleAlarmResult");
stopWatch.start();
if(Objects.isNull(decisionResult) || CollectionUtils.isEmpty(decisionResult.getDecisionRuleList())){
log.info("[每日跑批]决策输出为空,appCode={}",appCode);
return;
}
//存detail 优先级、编码
AlarmDetail detail = AlarmDetail.builder()
.appCode(appCode)
.alarmTime(new Date())
.alarmRules(JSON.toJSONString(decisionResult.getDecisionRuleList()))
.scenePhase(ScenePhaseEnum.LOAN_PROCESS.getIndex())
.build();
alarmDetailService.insertRecord(detail);
List<WorkOrder> oldWorkOrder = workOrderService.queryList(WorkOrderForm.builder()
.appCode(decisionResult.getAppCode())
.isFinished(ConstEnum.YesOrNoEnum.NO.getIndex()).build());
if(CollectionUtils.isEmpty(oldWorkOrder)){
saveWorkOrder(detail,decisionResult,0);
}else{
log.info("[每日跑批]该订单未处理完结无需创建,appCode={}",decisionResult.getAppCode());
}
stopWatch.stop();
long duration = stopWatch.getLastTaskTimeMillis();
log.info("[每日跑批]handleAlarmResult,appCode={},duration={}ms",appCode,duration);
}
复制代码
综上所述,调度任务发起对A服务调用时,然后开启了一个异步任务去处理,异步任务中分页查询处理,循环处理每一个待处理订单,然后同步调用决策引擎,
决策引擎返回的结果然后异步交由一个线程池去处理。跑批的待处理订单大概只有300多单会命中业务规则,对于命中规则的订单会生成工单外,还需要做相应 一系列业务逻辑处理,包括通知调用其他系统业务处理。而未命中规则,仅需插入一个预警记录外。无需其他操作,这说明,整体耗时在这300多单阻塞同步循环 调用决策引擎耗时占比非常大。
从上述图,可以看到命中决策规则的订单执行时间(跑批从凌晨七点执行,上图已经07:05分了),包括未命中决策规则的条数(763条)。
从上述图,可以看到命中决策规则(这部分订单需要业务处理,包括以及Redis入队等操作)的订单执行时间,包括未命中决策规则的条数(362条)。
三、优化方案
基于上线第一版的结论分析,并尽可能不修改业务处理逻辑和程序逻辑处理下,通过引入下属方案处理。
从上图可以看到最明显与初版差异的是,这次优化方案是,把循环处理待处理订单的阻塞操作,改为异步处理,交由一个线程池去处理,串行等待变为并行处理。
disposeOrderFacade#scanningOrders的方法前后变化
//异步处理,把每个待处理订单放在disposeOrderHandleThreadPool(待处理线程池)去处理
CompletableFuture.runAsync(() -> operateStrategyManager.execute(operateContext), disposeOrderHandleThreadPool);
复制代码
/**
* @description: 线程池配置
* @Date : 2019/4/25 下午2:36
* @Author : 石冬冬-Seig Heil
*/
@Configuration
@EnableAsync
@Slf4j
public class ThreadPoolConfig {
static final int blockingQueueCapacity = 5000;
static final int keepAliveTime = 60;
static final int availableProcessors = Runtime.getRuntime().availableProcessors();
static final int corePoolSize = availableProcessors * 8;
static final int maximumPoolSize = 50;
static {
log.info("[availableProcessors]={},corePoolSize={},maximumPoolSize={}",availableProcessors,corePoolSize,maximumPoolSize);
}
/**
* 通用线程池配置
* @return
*/
@Bean
public ExecutorService threadPoolExecutor() {
ThreadFactory threadFactory = new ThreadFactoryBuilder().setNameFormat("common-pool-%d").build();
return new ThreadPoolExecutor(corePoolSize,maximumPoolSize,keepAliveTime, TimeUnit.SECONDS,
new LinkedBlockingQueue<>(blockingQueueCapacity), threadFactory);
}
/**
* 跑批待处理订单线程池配置
* blockingQueueCapacity 需要设置合理大小,目前上线一周,每日跑批 1175单左右;即便线程池已满,使用拒绝策略;有补偿机制。
* @return
*/
@Bean
public ExecutorService disposeOrderHandleThreadPool() {
ThreadFactory threadFactory = new ThreadFactoryBuilder().setNameFormat("disposeOrder-pool-%d").build();
final int corePoolSize = availableProcessors * 6,maxPoolSize = corePoolSize * 2,keepAliveTime = 60,blockingQueueCapacity = 5000;
return new ThreadPoolExecutor(corePoolSize,maxPoolSize,keepAliveTime, TimeUnit.SECONDS,
new LinkedBlockingQueue<>(blockingQueueCapacity), threadFactory);
}
}
复制代码
这是上述线程池配置,也是目前跑到线上的配置。其中
disposeOrderHandleThreadPool (待处理订单线程池)也是经过几次优化后最终设置的参数配置。
- 第一次优化,出现队列拒绝现象。
/**
* 跑批待处理订单线程池配置
* @return
*/
@Bean
public ExecutorService disposeOrderHandleThreadPool() {
ThreadFactory threadFactory = new ThreadFactoryBuilder().setNameFormat("carthage-disposeOrder-pool-%d").build();
final int corePoolSize = 5,maxPoolSize = 12;
return new ThreadPoolExecutor(corePoolSize,maxPoolSize,60, TimeUnit.SECONDS,
new LinkedBlockingQueue<>(500), threadFactory);
}
复制代码
线程池配置如上,核心线程数5个,最大线程数10个,队列长度500个。
异常信息如下所图(好在待处理有重试机制,跑批任务数据没有问题):
- 第二次优化,无队列拒绝现象。
/**
* 跑批待处理订单线程池配置
* blockingQueueCapacity 需要设置合理大小,目前上线一周,每日跑批 1175单左右;即便线程池已满,使用拒绝策略;有补偿机制。
* @return
*/
@Bean
public ExecutorService disposeOrderHandleThreadPool() {
ThreadFactory threadFactory = new ThreadFactoryBuilder().setNameFormat("carthage-disposeOrder-pool-%d").build();
final int corePoolSize = availableProcessors * 4,maxPoolSize = corePoolSize,keepAliveTime = 60,blockingQueueCapacity = 5000;
return new ThreadPoolExecutor(corePoolSize,maxPoolSize,keepAliveTime, TimeUnit.SECONDS,
new LinkedBlockingQueue<>(blockingQueueCapacity), threadFactory);
}
复制代码
线程池配置如上,核心线程数14个(线上容器处理器核数4核),最大线程数跟核心一致16个,队列长度5000个。
跑批情况(共计=1210单,主线程:耗时=1s;子线程最后一单最后完成时间 2020-08-16 07:00:27.794;),跑批任务正常,无线程任务队列拒绝现象。
如上图,跑批任务最后一单执行日志输出,整个跑批耗时花费26秒。这是在一次周末抽空优化的结果。
- 第三次优化,进一步调整待处理和通用线程池核心数大小。
static final int blockingQueueCapacity = 5000;
static final int keepAliveTime = 60;
static final int availableProcessors = Runtime.getRuntime().availableProcessors();
static final int corePoolSize = availableProcessors * 8;
static final int maximumPoolSize = 50;
/**
* 通用线程池配置
* @return
*/
@Bean
public ExecutorService threadPoolExecutor() {
ThreadFactory threadFactory = new ThreadFactoryBuilder().setNameFormat("common-pool-%d").build();
return new ThreadPoolExecutor(corePoolSize,maximumPoolSize,keepAliveTime, TimeUnit.SECONDS,
new LinkedBlockingQueue<>(blockingQueueCapacity), threadFactory);
}
/**
* 跑批待处理订单线程池配置
* blockingQueueCapacity 需要设置合理大小,目前上线一周,每日跑批 1175单左右;即便线程池已满,使用拒绝策略;有补偿机制。
* @return
*/
@Bean
public ExecutorService disposeOrderHandleThreadPool() {
ThreadFactory threadFactory = new ThreadFactoryBuilder().setNameFormat("disposeOrder-pool-%d").build();
final int corePoolSize = availableProcessors * 6,maxPoolSize = corePoolSize * 2,keepAliveTime = 60,blockingQueueCapacity = 5000;
return new ThreadPoolExecutor(corePoolSize,maxPoolSize,keepAliveTime, TimeUnit.SECONDS,
new LinkedBlockingQueue<>(blockingQueueCapacity), threadFactory);
}
复制代码
通用线程池核心数32,最大50,队列长度500;待处理订单线程池配置核心数24,最大48,队列长度5000。
目前今日跑批(8月21日)1323单,主线程耗时=1s;子线程最后一单完成时间(2020-08-21 07:00:22.040),仅需要22秒,三次优化从最初5~6分钟,到现在的单机跑批22秒,质的飞跃。
上图是今日(8月21日)跑批容器实例(单机)的CPU以及堆内存使用情况。
上图是今日(8月21日)跑批容器实例(单机)的CPU以及线程数。
上图是今日(8月21日)跑批容器实例(单机)的堆内存和GC情况(JDK8,使用G1垃圾收集器,跑批期间发生一次MGC)。
四、归纳总结
1、性能优化尽量如果上线后,尽量在少修改业务代码或程序逻辑前提下,逐步改善方案。 2、串行变并行,使用线程池去处理,合理逐步调整线程池核心数以及队列长度。 3、线程池根据不同业务场景,应用不要采用一个线程池处理所有异步任务场景。 4、代码中通过合理打印日志,便于后期排查问题以及优化提供帮助。