什么!Sentinel 流控规则可以这样玩?
点赞再看,养成习惯,微信搜索【牧小农】关注我获取更多资讯,风里雨里,小农等你,很高兴能够成为你的朋友。项目源码地址:公众号回复 sentinel,即可免费获取源码
前言
上一篇文章中,我们讲解了关于sentinel
基本介绍以及流控规则中直接和快速失败的效果,有兴趣的可以去看上一篇文章,今天,我们给大家带来更加详细的关于sentinel
流控规则的介绍。今天的内容我们主要围绕四个点进行展开介绍。
流控模式 :关联、链路
流控效果 :Warm Up、排队等待
这四点具体是什么意思呢?别急我们一个一个来做详细的介绍,首先我们从关联开始。
首先启动项目:cloud-alibaba-sentinel-8006
关联
在官方的介绍中是这样说的:关联的资源达到阈值时,就限流自己。
这句话是什么意思呢?用比较直白一点的话来讲,假设我们有 A 和 B 两个接口,当 A 关联 B 接口,同时 B 接口的资源达到设定的阈值时,限流 A。我们也可以理解成,当我们下游的服务出现访问压力过大时,对上游的服务进行拦截和限流操作,例如:电商系统,当我们订单系统超出承受阈值时,对我们支付模块进行限流。
例如:当我们关联 order 接口达到我们设定的阈值时,限流 pay 的接口访问。
给 pay 接口添加流控规则
在这里我们需要使用到postMan
工具,来模拟并发访问,用它来测试我们的 order 接口的并发访问。
在这里的意思是 25 个线程 0.25 秒跑一次,当我们跑起来之后,再去访问 pay 接口就可以看到以下信息
当我们对 order 接口进行并发访问的时候,这个时候我们去访问 pay 接口,就可以看到 pay 接口返回限流信息
链路
接下来我们就来看一下流控模式中的链路,链路的意思是值当某个接口过来的资源达到阈值时,开启限流,主要是针对于请求来源的微服务,具有更细颗粒度。
比如在一个服务应用中,多个(pay 和 order)接口都调用了同一个服务中的方法(该方法必须使用注解 SentinelResource
进行修饰),如果频繁的去请求 pay 接口,并且达到设定的阈值,这么时候我们再去请求 order 接口,那么调用了同一服务的 order 接口就会被限流
test 类
controller 类
配置项web-context-unify
,这个配置的意思是说根据不同的 URL 进行链路限流,否则没有效果
我们访问 pay 接口和 order 接口后,需要对 end 进行流控规则的配置,也就是使用了SentinelResource
注解标注的方法进行流控设置。
那么这个时候如果我们频繁的去访问 order 接口的时候,就会出现异常的情况,直接抛出错误提示,这个也是因为快速失败在链路上的直接体现
Warm Up
参考文档:https://sentinelguard.io/zh-cn/docs/flow-control.html
Warm Up 流量控制,也叫预热或者冷启动方式,会根据我们设定的规则,进行缓慢的流量放开,逐渐增加阈值上限,给系统一个反应时间,避免流量的突然增加,将系统压垮的情况发生,主要用于预防我们系统长期处于稳定的流量访问下,突然流量的增加,将系统资源直接拉满的情况.
在这里我们主要弄明白两个参数
单机阈值:12,这个表示我们访问最大阈值为 12,但是第一次最大访问量为 4,为什么是 4 呢,看下面公式
预热公式:阈值/coldFactor(默认值为 3),经过预热时间后才会达到阈值。
预热时长:5 ,也就是说我们的请求会在五秒内单机阈值达到 12 的访问,比如第一次为 4,后续在五秒内依次 5/6/8/10,最后达到 12 的阈值
一般这种在秒杀或者电商节中会设置这样的流控规则,就是为了防止突然流量的增加导致系统的奔溃。
当我们设置完流控规则以后,我们就来看一下效果,我们刚才设置的 order 的接口,如果当我们在频繁的去访问 order 接口的时候,如果超过当前时间设定的阈值时,直接返回限流信息。
在这里我们直接用浏览器疯狂的去刷新,是时候体验单身二十几年的手速了,当然也可以使用 postman 接口去试,我们这边手速比较快,直接用浏览器刷新,我们可以看到下面的曲线图:
蓝色表示你拒绝的 QPS,绿色表示通过的 QPS,我们可以看到蓝色成明显的下降趋势,而绿色成上升趋势,也可以通过右边的表格中看到,刚开始通过的只有四个,具体的有三个,后面通过慢慢增加,拒绝慢慢变少,这个就是我们 Warm Up(预热)的作用了
排队等待
我们现在来介绍最后一个流控规则的使用,排队等待会严格控制请求通过的间隔时间,让请求稳定且匀速的通过,可以用来处理间隔性突发的高流量,例如抢票软件,在某一秒或者一分钟内有大量的请求到来,而接下来的一段时间里处于空闲状态,我们希望系统能够在接下来的空余时间里也能出去这些请求,而不是直接拒绝。
以固定的间隔时间让请求通过,当请求过来的时候,如果当前请求距离上一个请求通过的时间大于 规则预设值 ,则请求通过,如果当前请求预期通过时间小于 规则预设值 ,则进行排队等待,如果预期通过时间超过最大排队时间,直接拒绝请求。Sentinel
排队等待是 漏铜算法+虚拟队列机制实现的,目前排队等待中不支持 QPS>1000 的场景
我们对 pay 接口进行设置,一秒钟只处理一个 QPS 请求,其他的排队,如果超过 15 秒则直接拒绝
pay 接口调整,这里我们给 pay 接口加上打印日志,方便我们看到具体效果
我们借助 postman 来进行调用,说明手速始终更不上工具,还是工具香,这里我们设置 10 个请求,没有间隔时间
从下图中我们可以看到,对于我们的请求,是一个 QPS 请求。
总结
到这里呢,我们的流控规则就讲完了,主要是针对不同的规则进行不同的设定,来满足我们不用业务场景,可能会有一点点的小饶,但是如果亲自操作之后,会感觉原来是这样,感兴趣的小伙伴可以自己动手试一试,源码都已经上传了,只有动手了才能感受到其中的快乐,赶紧去试一试吧。
我是牧小农,怕什么真理无穷,进一步有进一步的欢喜,大家加油!
版权声明: 本文为 InfoQ 作者【牧小农】的原创文章。
原文链接:【http://xie.infoq.cn/article/f8373c10f48754ebc69249f79】。文章转载请联系作者。
评论