第三方数据未拉取取不了现 阿里面试:订单超时怎么处理?我们用这种方案
目录标题
背景
在企业的商业活动中,订单是指交易双方的产品或服务交易意向。交易下单负责创建这个交易双方的产品或服务交易意向,有了这个意向后,买方可以付款,卖方可以发货。
在电商场景下,买卖双方没有面对面交易,许多情况下需要通过超时处理自动关闭订单,下面是一个订单的流程:
如上图所示,一个订单流程中有许多环节要用到超时处理,包括但不限于:
JDK 自带的延时队列
JDK中提供了一种延迟队列数据结构,其本质是封装了,可以把元素进行排序。
把订单插入中,以超时时间作为排序条件,将订单按照超时时间从小到大排序。起一个线程不停轮询队列的头部,如果订单的超时时间到了,就出队进行超时处理,并更新订单状态到数据库中。为了防止机器重启导致内存中的数据丢失,每次机器启动的时候,需要从数据库中初始化未结束的订单,加入到中。
优点:简单,不需要借助其他第三方组件,成本低。
缺点:所有超时处理订单都要加入到中,占用内存大。没法做到分布式处理,只能在集群中选一台专门处理,效率低。不适合订单量比较大的场景。
的延时消息
的延时消息主要有两个解决方案:
是官方提供的延时消息插件,虽然使用起来比较方便,但是不是高可用的,如果节点挂了会导致消息丢失。引用官网原文:
are in a table (also see
below) with a disk on the node. They will
a node . While timer(s) that
are not , it will be re-
on node start. , only one copy of a
in a means that that node or
the on it will lose the on that
node.
消息的TTL+死信
消息的TTL+死信解决方案,先要了解两个概念:
TTL:即消息的存活时间。可以对队列和消息分别设置TTL,如果对队列设置,则队列中所有的消息都具有相同的过期时间。超过了这个时间,我们认为这个消息就死了,称之为死信。
死信(DLX):一个消息在满足以下条件会进入死信交换机
一个延时消息的流程如下图:
定义一个,用来接收死信消息,并进行业务消费。定义一个死信交换机(),绑定,接收延时队列的消息,并转发给。定义一组延时队列,分别配置不同的TTL,用来处理固定延时5s、10s、30s等延时等级,并绑定到。定义,用来接收业务发过来的延时消息,并根据延时时间转发到不同的延时队列中。
优点:可以支持海量延时消息,支持分布式处理。
缺点:不灵活,只能支持固定延时等级;使用复杂,要配置一堆延时队列。
的定时消息
支持任意秒级的定时消息,如下图所示
使用门槛低,只需要在发送消息的时候设置延时时间即可,以java代码为例:
MessageBuilder messageBuilder = null;
Long deliverTimeStamp = System.currentTimeMillis() + 10L * 60 * 1000; //延迟10分钟
Message message = messageBuilder.setTopic("topic")
//设置消息索引键,可根据关键字精确查找某条消息。
.setKeys("messageKey")
//设置消息Tag,用于消费端根据指定Tag过滤消息。
.setTag("messageTag")
//设置延时时间
.setDeliveryTimestamp(deliverTimeStamp)
//消息体
.setBody("messageBody".getBytes())
.build();
SendReceipt sendReceipt = producer.send(message);
System.out.println(sendReceipt.getMessageId());
的定时消息是如何实现的呢?
在中,使用了经典的时间轮算法[1]。通过来描述时间轮不同的时刻,通过来记录不同时刻的消息。
中的每一格代表着一个时刻,同时会有一个指向这个刻度下所有定时消息的首条记录的地址,一个指向这个刻度下所有定时消息最后一条的记录的地址。并且,对于所处于同一个刻度的的消息,其会通过串联成一个链表。
当需要新增一条记录的时候,例如现在我们要新增一个 “1-4”。那么就将新记录的 指向当前的 ,即 “1-3”,然后修改 指向 “1-4”。这样就将同一个刻度上面的 记录全都串起来了。
优点 缺点 Redis的过期监听
Redis支持过期监听,也能达到和定时消息一样的能力,具体步骤如下:
redis配置文件开启"-- Ex"
监听key的过期回调,以java代码为例
@Configuration
public class RedisListenerConfig {
@Bean
RedisMessageListenerContainer container(RedisConnectionFactory factory){
RedisMessageListenerContainer container=new RedisMessageListenerContainer();
container.setConnectionFactory(factory);
return container;
}
}
@Component
public class RedisKeyExpirationListerner extends KeyExpirationEventMessageListener {
public RedisKeyExpirationListerner(RedisMessageListenerContainer listenerContainer) {
super(listenerContainer);
}
@Override
public void onMessage(Message message, byte[] pattern) {
String keyExpira = message.toString();
System.out.println("监听到key:" + expiredKey + "已过期");
}
}
使用Redis进行订单超时处理的流程图如下:
这个方案表面看起来没问题,但是在实际生产上不推荐,我们来看下Redis过期时间的原理
每当我们对一个key设置了过期时间,Redis就会把该key带上过期时间,存到过期字典中,在中通过字段维护:
typedef struct redisDb {
dict *dict; /* 维护所有key-value键值对 */
dict *expires; /* 过期字典,维护设置失效时间的键 */
....
} redisDb
过期字典本质上是一个链表,每个节点的数据结构结构如下:
Redis主要使用了定期删除和惰性删除策略来进行过期key的删除
定期删除:每隔一段时间(默认100ms)就随机抽取一些设置了过期时间的key,检查其是否过期,如果有过期就删除。之所以这么做,是为了通过限制删除操作的执行时长和频率来减少对cpu的影响。不然每隔100ms就要遍历所有设置过期时间的key,会导致cpu负载太大。
惰性删除:不主动删除过期的key,每次从数据库访问key时,都检测key是否过期,如果过期则删除该key。惰性删除有一个问题,如果这个key已经过期了,但是一直没有被访问,就会一直保存在数据库中。
从以上的原理可以得知[2],Redis过期删除是不精准的,在订单超时处理的场景下,惰性删除基本上也用不到,无法保证key在过期的时候可以立即删除,更不能保证能立即通知。如果订单量比较大,那么延迟几分钟也是有可能的。
Redis过期通知也是不可靠的,Redis在过期通知的时候,如果应用正好重启了,那么就有可能通知事件就丢了,会导致订单一直无法关闭,有稳定性问题。如果一定要使用Redis过期监听方案,建议再通过定时任务做补偿机制。
定时任务分布式批处理
定时任务分布式批处理解决方案,即通过定时任务不停轮询数据库的订单,将已经超时的订单捞出来,分发给不同的机器分布式处理:
使用定时任务分布式批处理的方案具有如下优势:
但是使用定时任务有个天然的缺点:没法做到精度很高。定时任务的延迟时间,由定时任务的调度周期决定。如果把频率设置很小,就会导致数据库的qps比较高,容易造成数据库压力过大,从而影响线上的正常业务。
所以一般需要抽离出超时中心和超时库来单独做订单的超时调度,在阿里内部,几乎所有的业务都使用基于定时任务分布式批处理的超时中心来做订单超时处理,SLA可以做到30秒以内:
如何让超时中心不同的节点协同工作,拉取不同的数据?
通常的解决方案是借助任务调度系统,开源任务调度系统大多支持分片模型,比较适合做分库分表的轮询,比如一个分片代表一张分表。但是如果分表特别多,分片模型配置起来还是比较麻烦的。另外如果只有一张大表,或者超时中心使用其他的存储,这两个模型就不太适合。
阿里巴巴分布式任务调度系统[3],不但兼容主流开源任务调度系统和 @注解,还自研了轻量级模型[4],针对任意异构数据源,简单几行代码就可以实现海量数据秒级别跑批。
使用定时跑批解决方案,还具有如下优势:
总结
如果对于超时精度比较高,超时时间在24小时内,且不会有峰值压力的场景,推荐使用的定时消息解决方案。
在电商业务下,许多订单超时场景都在24小时以上,对于超时精度没有那么敏感,并且有海量订单需要批处理,推荐使用基于定时任务的跑批解决方案。