写点什么

订单超时怎么处理?我们用这种方案

  • 2023-03-13
    浙江
  • 本文字数:4701 字

    阅读完需:约 15 分钟

作者:黄晓萌(学仁)

背景

在企业的商业活动中,订单是指交易双方的产品或服务交易意向。交易下单负责创建这个交易双方的产品或服务交易意向,有了这个意向后,买方可以付款,卖方可以发货。


在电商场景下,买卖双方没有面对面交易,许多情况下需要通过超时处理自动关闭订单,下面是一个订单的流程:


1.png


如上图所示,一个订单流程中有许多环节要用到超时处理,包括但不限于:


  • 买家超时未付款:比如超过 15 分钟没有支付,订单自动取消。

  • 商家超时未发货:比如商家超过 1 个月没发货,订单自动取消。

  • 买家超时未收货:比如商家发货后,买家没有在 14 天内点击确认收货,则系统默认自动收货。

JDK 自带的延时队列

JDK 中提供了一种延迟队列数据结构 DelayQueue,其本质是封装了 PriorityQueue,可以把元素进行排序。


2.png


  1. 把订单插入 DelayQueue 中,以超时时间作为排序条件,将订单按照超时时间从小到大排序。

  2. 起一个线程不停轮询队列的头部,如果订单的超时时间到了,就出队进行超时处理,并更新订单状态到数据库中。

  3. 为了防止机器重启导致内存中的 DelayQueue 数据丢失,每次机器启动的时候,需要从数据库中初始化未结束的订单,加入到 DelayQueue 中。


  • 优点:简单,不需要借助其他第三方组件,成本低。

  • 缺点:


  • 所有超时处理订单都要加入到 DelayQueue 中,占用内存大。

  • 没法做到分布式处理,只能在集群中选一台 leader 专门处理,效率低。

  • 不适合订单量比较大的场景。

RabbitMQ 的延时消息

RabbitMQ 的延时消息主要有两个解决方案:


  • RabbitMQ Delayed Message Plugin

  • 消息的 TTL+死信 Exchange


RabbitMQ Delayed Message Plugin 是官方提供的延时消息插件,虽然使用起来比较方便,但是不是高可用的,如果节点挂了会导致消息丢失。引用官网原文:


Delayed messages are stored in a Mnesia table (also see Limitations below) with a single disk replica on the current node. They will survive a node restart. While timer(s) that triggered scheduled delivery are not persisted, it will be re-initialised during plugin activation on node start. Obviously, only having one copy of a scheduled message in a cluster means that losing that node or disabling the plugin on it will lose the messages residing on that node.


消息的 TTL+死信 Exchange 解决方案,先要了解两个概念:


  • TTL:即消息的存活时间。RabbitMQ 可以对队列和消息分别设置 TTL,如果对队列设置,则队列中所有的消息都具有相同的过期时间。超过了这个时间,我们认为这个消息就死了,称之为死信。

  • 死信 Exchange(DLX):一个消息在满足以下条件会进入死信交换机


  • 一个消息被 Consumer 拒收了,并且 reject 方法的参数里 requeue 是 false。也就是说不会被再次放在队列里,被其他消费者使用。

  • TTL 到期的消息。

  • 队列满了被丢弃的消息。


一个延时消息的流程如下图:


3.png


  1. 定义一个 BizQueue,用来接收死信消息,并进行业务消费。

  2. 定义一个死信交换机(DLXExchange),绑定 BizQueue,接收延时队列的消息,并转发给 BizQueue。

  3. 定义一组延时队列 DelayQueue_xx,分别配置不同的 TTL,用来处理固定延时 5s、10s、30s 等延时等级,并绑定到 DLXExchange。

  4. 定义 DelayExchange,用来接收业务发过来的延时消息,并根据延时时间转发到不同的延时队列中。


  • 优点:可以支持海量延时消息,支持分布式处理。

  • 缺点:


  • 不灵活,只能支持固定延时等级。

  • 使用复杂,要配置一堆延时队列。

RocketMQ 的定时消息

RocketMQ 支持任意秒级的定时消息,如下图所示


4.png


使用门槛低,只需要在发送消息的时候设置延时时间即可,以 java 代码为例:


MessageBuilder messageBuilder = null;Long deliverTimeStamp = System.currentTimeMillis() + 10L * 60 * 1000; //延迟10分钟Message message = messageBuilder.setTopic("topic")        //设置消息索引键,可根据关键字精确查找某条消息。        .setKeys("messageKey")        //设置消息Tag,用于消费端根据指定Tag过滤消息。        .setTag("messageTag")        //设置延时时间        .setDeliveryTimestamp(deliverTimeStamp)         //消息体        .setBody("messageBody".getBytes())        .build();SendReceipt sendReceipt = producer.send(message);System.out.println(sendReceipt.getMessageId());
复制代码


RocketMQ 的定时消息是如何实现的呢?


在 RocketMQ 中,使用了经典的时间轮算法[1]。通过 TimerWheel 来描述时间轮不同的时刻,通过 TimerLog 来记录不同时刻的消息。


TimerWheel 中的每一格代表着一个时刻,同时会有一个 firstPos 指向这个刻度下所有定时消息的首条 TimerLog 记录的地址,一个 lastPos 指向这个刻度下所有定时消息最后一条 TimerLog 的记录的地址。并且,对于所处于同一个刻度的的消息,其 TimerLog 会通过 prevPos 串联成一个链表。


5.png


当需要新增一条记录的时候,例如现在我们要新增一个 “1-4”。那么就将新记录的 prevPos 指向当前的 lastPos,即 “1-3”,然后修改 lastPos 指向 “1-4”。这样就将同一个刻度上面的 TimerLog 记录全都串起来了。


6.png


  • 优点


  • 精度高,支持任意时刻。

  • 使用门槛低,和使用普通消息一样。


  • 缺点


  • 使用限制:定时时长最大值 24 小时。

  • 成本高:每个订单需要新增一个定时消息,且不会马上消费,给 MQ 带来很大的存储成本。

  • 同一个时刻大量消息会导致消息延迟:定时消息的实现逻辑需要先经过定时存储等待触发,定时时间到达后才会被投递给消费者。因此,如果将大量定时消息的定时时间设置为同一时刻,则到达该时刻后会有大量消息同时需要被处理,会造成系统压力过大,导致消息分发延迟,影响定时精度。

Redis 的过期监听

Redis 支持过期监听,也能达到和 RocketMQ 定时消息一样的能力,具体步骤如下:


  1. redis 配置文件开启"notify-keyspace-events Ex"


7.png


  1. 监听 key 的过期回调,以 java 代码为例


@Configurationpublic class RedisListenerConfig {    @Bean    RedisMessageListenerContainer container(RedisConnectionFactory factory){        RedisMessageListenerContainer container=new RedisMessageListenerContainer();        container.setConnectionFactory(factory);        return container;    }}
复制代码


@Componentpublic class RedisKeyExpirationListerner extends KeyExpirationEventMessageListener {     public RedisKeyExpirationListerner(RedisMessageListenerContainer listenerContainer) {        super(listenerContainer);    }     @Override    public void onMessage(Message message, byte[] pattern) {        String keyExpira = message.toString();        System.out.println("监听到key:" + expiredKey + "已过期");    }}
复制代码


使用 Redis 进行订单超时处理的流程图如下


8.png


这个方案表面看起来没问题,但是在实际生产上不推荐,我们来看下 Redis 过期时间的原理


每当我们对一个 key 设置了过期时间,Redis 就会把该 key 带上过期时间,存到过期字典中,在 redisDb 中通过 expires 字段维护:


typedef struct redisDb {    dict *dict;    /* 维护所有key-value键值对 */    dict *expires; /* 过期字典,维护设置失效时间的键 */    ....} redisDb;
复制代码


过期字典本质上是一个链表,每个节点的数据结构结构如下:


  • key 是一个指针,指向某个键对象。

  • value 是一个 long long 类型的整数,保存了 key 的过期时间。


9.png


Redis 主要使用了定期删除和惰性删除策略来进行过期 key 的删除


  • 定期删除:每隔一段时间(默认 100ms)就随机抽取一些设置了过期时间的 key,检查其是否过期,如果有过期就删除。之所以这么做,是为了通过限制删除操作的执行时长和频率来减少对 cpu 的影响。不然每隔 100ms 就要遍历所有设置过期时间的 key,会导致 cpu 负载太大。

  • 惰性删除:不主动删除过期的 key,每次从数据库访问 key 时,都检测 key 是否过期,如果过期则删除该 key。惰性删除有一个问题,如果这个 key 已经过期了,但是一直没有被访问,就会一直保存在数据库中。


从以上的原理可以得知[2],Redis 过期删除是不精准的,在订单超时处理的场景下,惰性删除基本上也用不到,无法保证 key 在过期的时候可以立即删除,更不能保证能立即通知。如果订单量比较大,那么延迟几分钟也是有可能的。


Redis 过期通知也是不可靠的,Redis 在过期通知的时候,如果应用正好重启了,那么就有可能通知事件就丢了,会导致订单一直无法关闭,有稳定性问题。如果一定要使用 Redis 过期监听方案,建议再通过定时任务做补偿机制。

定时任务分布式批处理

定时任务分布式批处理解决方案,即通过定时任务不停轮询数据库的订单,将已经超时的订单捞出来,分发给不同的机器分布式处理:


10.png


使用定时任务分布式批处理的方案具有如下优势:


  • 稳定性强: 基于通知的方案(比如 MQ 和 Redis),比较担心在各种极端情况下导致通知的事件丢了。使用定时任务跑批,只需要保证业务幂等即可,如果这个批次有些订单没有捞出来,或者处理订单的时候应用重启了,下一个批次还是可以捞出来处理,稳定性非常高。

  • 效率高: 基于 MQ 的方案,需要一个订单一个定时消息,consumer 处理定时消息的时候也需要一个订单一个订单更新,对数据库 tps 很高。使用定时任务跑批方案,一次捞出一批订单,处理完了,可以批量更新订单状态,减少数据库的 tps。在海量订单处理场景下,批量处理效率最高。

  • 可运维: 基于数据库存储,可以很方便的对订单进行修改、暂停、取消等操作,所见即所得。如果业务跑失败了,还可以直接通过 sql 修改数据库来进行批量运维。

  • 成本低: 相对于其他解决方案要借助第三方存储组件,复用数据库的成本大大降低。


但是使用定时任务有个天然的缺点:没法做到精度很高。定时任务的延迟时间,由定时任务的调度周期决定。如果把频率设置很小,就会导致数据库的 qps 比较高,容易造成数据库压力过大,从而影响线上的正常业务。


所以一般需要抽离出超时中心和超时库来单独做订单的超时调度,在阿里内部,几乎所有的业务都使用基于定时任务分布式批处理的超时中心来做订单超时处理,SLA 可以做到 30 秒以内:


11.png


如何让超时中心不同的节点协同工作,拉取不同的数据?


通常的解决方案是借助任务调度系统,开源任务调度系统大多支持分片模型,比较适合做分库分表的轮询,比如一个分片代表一张分表。但是如果分表特别多,分片模型配置起来还是比较麻烦的。另外如果只有一张大表,或者超时中心使用其他的存储,这两个模型就不太适合。


阿里巴巴分布式任务调度系统 SchedulerX[3],不但兼容主流开源任务调度系统和 Spring @Scheduled 注解,还自研了轻量级 MapReduce 模型[4],针对任意异构数据源,简单几行代码就可以实现海量数据秒级别跑批。


  1. 通过实现 map 函数,通过代码自行构造分片,SchedulerX 会将分片平均分给超时中心的不同节点分布式执行。


12.png


  1. 通过实现 reduce 函数,可以做聚合,可以判断这次跑批有哪些分片跑失败了,从而通知下游处理。


13.png


使用 SchedulerX 定时跑批解决方案,还具有如下优势:


  • 免运维、成本低: 不需要自建任务调度系统,由云上托管。

  • 可观测: 提供任务执行的历史记录、查看堆栈、日志服务、链路追踪等能力。

  • 高可用: 支持同城双活容灾,支持多种渠道的监控报警。

  • 混部: 可以托管阿里云的机器,也可以托管非阿里云的机器。

总结

如果对于超时精度比较高,超时时间在 24 小时内,且不会有峰值压力的场景,推荐使用 RocketMQ 的定时消息解决方案。


在电商业务下,许多订单超时场景都在 24 小时以上,对于超时精度没有那么敏感,并且有海量订单需要批处理,推荐使用基于定时任务的跑批解决方案。


参考链接:


[1] https://developer.aliyun.com/article/994932


[2] https://redis.io/docs/manual/keyspace-notifications/


[3] https://www.aliyun.com/aliware/schedulerx


[4] https://developer.aliyun.com/article/706820

发布于: 刚刚阅读数: 3
用户头像

云原生技术是云时代释放云价值的最短路径。 2020-06-11 加入

还未添加个人简介

评论

发布
暂无评论
订单超时怎么处理?我们用这种方案_阿里云_阿里巴巴中间件_InfoQ写作社区