分类: Mysql/postgreSQL
2022-11-08 10:32:12
国际财务泰国每月月初账单任务生成,或者重算账单数据,数据同步方案为mysql通过binlake同步ES数据,在同步过程中发现计费事件表,计费结果表均有延迟,ES数据与Mysql数据不一致,导致业务页面查询数据不准确,部分核心计算通过ES校验失败
解决binlake到JMQ积压同步ES延迟问题
现有业务基本流程如下图,包含运营端和外部数据接入,整体操作到数据存储流程
jmq积压,报警
国内站截图如下
普及:JMQ默认生产者发送消息QPS受到主题的broker数量影响,(8w/s)/broker
1)分析原因一、ES写入量大,导致ES写入QPS瓶颈
ES写入瓶颈需要进行压测,才能确定实际是否达到瓶颈;
通过查询集群负载,写入队列有无积压,cpu高不高,来定位
以下为调整MQ批量消费大小后的ES监控
写入队列无积压,CPU不高,写入QPS没有达到瓶颈
2)分析原因二、ES写入慢导致消费积压
ES解析服务解析慢,瓶颈在ES解析处
根据当前系统CPU、负载信息定位是否服务器性能满负荷,是否扩容
无报警信息,整体运行平稳,基本排除业务资源达到瓶颈问题引起写入慢
MQ消费端消费慢,瓶颈在消费并发处
当前主题分片数3,队列数为15,默认{BANNED}最佳大并发数为15*10,报警当时入队数500~700/s
定位问题,为MQ消费慢,其根本原因为受到ES-Parse业务系统处理速度影响
开启mq并行消费策略,写入QPS显著增加
造成问题原因核心点是MQ积压,业务系统消费慢,MQ入队数大于出队数,导致积压
{BANNED}中国第一步:binlake订阅mysql binlog
第二步:发MQ,JMQ数据传输
第三步:消费JMQ数据,ES Paser数据解析,
第四步:数据存储
JMQ消费默认就是批量消费
消费原理如下图
批量消费与并行消费原理如下图
通过分析,在未开启并行消费前提下,当前主题{BANNED}最佳大处并发的消费处理能力即是队列数
扩容,增加并发消费能力
针对MQ默认情况下,一切扩容都能解决问题,增大分片数,增加队列数
需要额外资源,申请扩容新的broker,同时考虑增加消费端实例
增加批量大小
首先保证,业务系统(ES-Parse)消费MQ消息,处理10条和处理100条速度基本一样
实践:国际财务针对此方法进行代码逻辑改造
开启并行数
理论上增加(并行数/批量数)的倍数并发处理能力
要求数据无序,针对乱序,数据存储,不影响业务
1)实现数据幂等性,增加缓存,并行消费策略
方案流程
基础实现流程:
1)根据binlake发送mq,在mq端开启并行消费,确保并行消费
2)根据业务单号对,单号加锁(如麦哲伦对运单号加锁,即对单号加分布式锁),根据对应的ID获取ES数据。
3)校验数据是否有效,若查询无数据,则直接新增;若查询的数据状态大于当前数据状态,则直接抛弃,若查询状态小于当前数据状态,则直接更新数据
4)更新缓存并释放锁
优点
缺点
实践:麦哲伦运单中心针对此方案实现binlake数据同步ES
2)binlake主题分发子主题,显示增大并发策略
优点:
提升速率计算:
缺点
实践:跨境赤道分发中心实现类似功能实践,消息转发,其他MQ实现
3)俩种方案对比
主题较少一个俩个主题情况下,且业务处理比较耗时情况下,不想额外开发,可选方案二
长期方案选择方案一,并行消费策略,可伸缩性,可扩展,支持动态扩容
针对MQ积压问题,并行消费可以是解决问题的一大利器,本文从binlake同步ES进行分析,同时针对积压推荐俩种方案,并从性能合理利用及扩展性分析,简要介绍方案二并行有序消费策略,希望能够帮助大家,如有问题,请随时指出!
作者:任洪波