5 种分布式事务方案与阿里的 Seata 中间件
分布式事务的产生
我们先看看百度上对于分布式事务的定义:分布式事务是指事务的参与者、支持事务的服务器、资源服务器以及事务管理器分别位于不同的分布式系统的不同节点之上。
额~ 有点抽象,简单的画个图好理解一下,拿下单减库存、扣余额来说举例:
当系统的体量很小时,单体架构完全可以满足现有业务需求,所有的业务共用一个数据库,整个下单流程或许只用在一个方法里同一个事务下操作数据库即可。此时做到所有操作要么全部提交 或 要么全部回滚很容易。
分库分表、SOA
可随着业务量的不断增长,单体架构渐渐扛不住巨大的流量,此时就需要对数据库、表做 分库分表
处理,将应用 SOA
服务化拆分。也就产生了订单中心、用户中心、库存中心等,由此带来的问题就是业务间相互隔离,每个业务都维护着自己的数据库,数据的交换只能进行RPC
调用。
当用户再次下单时,需同时对订单库 order
、库存库 storage
、用户库 account
进行操作,可此时我们只能保证自己本地的数据一致性,无法保证调用其他服务的操作是否成功,所以为了保证整个下单流程的数据一致性,就需要分布式事务介入。
Seata 优势
实现分布式事务的方案比较多,常见的比如基于 XA
协议的 2PC
、3PC
,基于业务层的TCC
,还有应用消息队列 + 消息表实现的最终一致性方案,还有今天要说的 Seata
中间件,下边看看各个方案的优缺点。
2PC
基于 XA 协议实现的分布式事务,XA 协议中分为两部分:事务管理器和本地资源管理器。其中本地资源管理器往往由数据库实现,比如 Oracle、MYSQL 这些数据库都实现了 XA 接口,而事务管理器则作为一个全局的调度者。
两阶段提交(2PC
),对业务侵⼊很小,它最⼤的优势就是对使⽤⽅透明,用户可以像使⽤本地事务⼀样使⽤基于 XA 协议的分布式事务,能够严格保障事务 ACID 特性。
可 2PC
的缺点也是显而易见,它是一个强一致性的同步阻塞协议,事务执⾏过程中需要将所需资源全部锁定,也就是俗称的 刚性事务
。所以它比较适⽤于执⾏时间确定的短事务,整体性能比较差。
一旦事务协调者宕机或者发生网络抖动,会让参与者一直处于锁定资源的状态或者只有一部分参与者提交成功,导致数据的不一致。因此,在⾼并发性能⾄上的场景中,基于 XA 协议的分布式事务并不是最佳选择。
3PC
三段提交(3PC
)是二阶段提交(2PC
)的一种改进版本 ,为解决两阶段提交协议的阻塞问题,上边提到两段提交,当协调者崩溃时,参与者不能做出最后的选择,就会一直保持阻塞锁定资源。
2PC
中只有协调者有超时机制,3PC
在协调者和参与者中都引入了超时机制,协调者出现故障后,参与者就不会一直阻塞。而且在第一阶段和第二阶段中又插入了一个准备阶段(如下图,看着有点啰嗦),保证了在最后提交阶段之前各参与节点的状态是一致的。
虽然 3PC
用超时机制,解决了协调者故障后参与者的阻塞问题,但与此同时却多了一次网络通信,性能上反而变得更差,也不太推荐。
TCC
所谓的 TCC
编程模式,也是两阶段提交的一个变种,不同的是 TCC
为在业务层编写代码实现的两阶段提交。TCC
分别指 Try
、Confirm
、Cancel
,一个业务操作要对应的写这三个方法。
以下单扣库存为例,Try
阶段去占库存,Confirm
阶段则实际扣库存,如果库存扣减失败 Cancel
阶段进行回滚,释放库存。
TCC 不存在资源阻塞的问题,因为每个方法都直接进行事务的提交,一旦出现异常通过则 Cancel
来进行回滚补偿,这也就是常说的补偿性事务。
原本一个方法,现在却需要三个方法来支持,可以看到 TCC 对业务的侵入性很强,而且这种模式并不能很好地被复用,会导致开发量激增。还要考虑到网络波动等原因,为保证请求一定送达都会有重试机制,所以考虑到接口的幂等性。
消息事务(最终一致性)
消息事务其实就是基于消息中间件的两阶段提交,将本地事务和发消息放在同一个事务里,保证本地操作和发送消息同时成功。下单扣库存原理图:
订单系统向
MQ
发送一条预备扣减库存消息,MQ
保存预备消息并返回成功ACK
接收到预备消息执行成功
ACK
,订单系统执行本地下单操作,为防止消息发送成功而本地事务失败,订单系统会实现MQ
的回调接口,其内不断的检查本地事务是否执行成功,如果失败则rollback
回滚预备消息;成功则对消息进行最终commit
提交。库存系统消费扣减库存消息,执行本地事务,如果扣减失败,消息会重新投,一旦超出重试次数,则本地表持久化失败消息,并启动定时任务做补偿。
基于消息中间件的两阶段提交方案,通常用在高并发场景下使用,牺牲数据的强一致性换取性能的大幅提升,不过实现这种方式的成本和复杂度是比较高的,还要看实际业务情况。
Seata
Seata
也是从两段提交演变而来的一种分布式事务解决方案,提供了 AT
、TCC
、SAGA
和XA
等事务模式,这里重点介绍 AT
模式。
既然 Seata
是两段提交,那我们看看它在每个阶段都做了点啥?下边我们还以下单扣库存、扣余额举例。
先介绍 Seata
分布式事务的几种角色:
Transaction Coordinator(TC)
: 全局事务协调者,用来协调全局事务和各个分支事务(不同服务)的状态, 驱动全局事务和各个分支事务的回滚或提交。Transaction Manager™
: 事务管理者,业务层中用来开启/提交/回滚一个整体事务(在调用服务的方法中用注解开启事务)。Resource Manager(RM)
: 资源管理者,一般指业务数据库代表了一个分支事务(Branch Transaction
),管理分支事务与TC
进行协调注册分支事务并且汇报分支事务的状态,驱动分支事务的提交或回滚。
Seata 实现分布式事务,设计了一个关键角色
UNDO_LOG
(回滚日志记录表),我们在每个应用分布式事务的业务库中创建这张表,这个表的核心作用就是,将业务数据在更新前后的数据镜像组织成回滚日志,备份在UNDO_LOG
表中,以便业务异常能随时回滚。
第一个阶段
比如:下边我们更新 user
表的 name
字段。
首先 Seata 的 JDBC
数据源代理通过对业务 SQL 解析,提取 SQL 的元数据,也就是得到 SQL 的类型(UPDATE
),表(user
),条件(where name = '程序员内点事'
)等相关的信息。
第一个阶段的流程图
先查询数据前镜像,根据解析得到的条件信息,生成查询语句,定位一条数据。
数据前镜像
紧接着执行业务 SQL,根据前镜像数据主键查询出后镜像数据
数据后镜像
把业务数据在更新前后的数据镜像组织成回滚日志,将业务数据的更新和回滚日志在同一个本地事务中提交,分别插入到业务表和 UNDO_LOG
表中。
回滚记录数据格式如下:包括 afterImage
前镜像、beforeImage
后镜像、 branchId
分支事务ID、xid
全局事务ID
这样就可以保证,任何提交的业务数据的更新一定有相应的回滚日志。
在本地事务提交前,各分支事务需向
全局事务协调者
TC 注册分支 (Branch Id
) ,为要修改的记录申请 全局锁 ,要为这条数据加锁,利用SELECT FOR UPDATE
语句。而如果一直拿不到锁那就需要回滚本地事务。TM 开启事务后会生成全局唯一的XID
,会在各个调用的服务间进行传递。
有了这样的机制,本地事务分支(Branch Transaction
)便可以在全局事务的第一阶段提交,并马上释放本地事务锁定的资源。相比于传统的 XA
事务在第二阶段释放资源,Seata
降低了锁范围提高效率,即使第二阶段发生异常需要回滚,也可以快速 从UNDO_LOG
表中找到对应回滚数据并反解析成 SQL 来达到回滚补偿。
最后本地事务提交,业务数据的更新和前面生成的 UNDO LOG 数据一并提交,并将本地事务提交的结果上报给全局事务协调者 TC。
第二个阶段
第二阶段是根据各分支的决议做提交或回滚:
如果决议是全局提交,此时各分支事务已提交并成功,这时 全局事务协调者(TC)
会向分支发送第二阶段的请求。收到 TC 的分支提交请求,该请求会被放入一个异步任务队列中,并马上返回提交成功结果给 TC。异步队列中会异步和批量地根据 Branch ID
查找并删除相应 UNDO LOG
回滚记录。
如果决议是全局回滚,过程比全局提交麻烦一点,RM
服务方收到 TC
全局协调者发来的回滚请求,通过 XID
和 Branch ID
找到相应的回滚日志记录,通过回滚记录生成反向的更新 SQL 并执行,以完成分支的回滚。
注意:这里删除回滚日志记录操作,一定是在本地业务事务执行之后
上边说了几种分布式事务各自的优缺点,下边实践一下分布式事务中间 Seata 感受一下。
Seata 实践
Seata 是一个需独立部署的中间件,所以先搭 Seata Server,这里以最新的 seata-server-1.4.0
版本为例,下载地址:https://seata.io/en-us/blog/download.html
解压后的文件我们只需要关心 \seata\conf
目录下的 file.conf
和 registry.conf
文件。
Seata Server
file.conf
file.conf
文件用于配置持久化事务日志的模式,目前提供 file
、db
、redis
三种方式。
file.conf 文件配置
注意:在选择 db
方式后,需要在对应数据库创建 globalTable
(持久化全局事务)、branchTable
(持久化各提交分支的事务)、 lockTable
(持久化各分支锁定资源事务)三张表。
registry.conf
registry.conf
文件设置 注册中心 和 配置中心:
目前注册中心支持 nacos
、eureka
、redis
、zk
、consul
、etcd3
、sofa
七种,这里我使用的 eureka
作为注册中心 ;配置中心支持 nacos
、apollo
、zk
、consul
、etcd3
五种方式。
registry.conf 文件配置
配置完以后在 \seata\bin
目录下启动 seata-server
即可,到这 Seata
的服务端就搭建好了。
Seata Client
Seata Server
环境搭建完,接下来我们新建三个服务 order-server
(下单服务)、storage-server
(扣减库存服务)、account-server
(账户金额服务),分别服务注册到eureka
。
每个服务的大体核心配置如下:
业务大致流程:用户发起下单请求,本地 order 订单服务创建订单记录,并通过 RPC
远程调用 storage
扣减库存服务和 account
扣账户余额服务,只有三个服务同时执行成功,才是一个完整的下单流程。如果某个服执行失败,则其他服务全部回滚。
Seata 对业务代码的侵入性非常小,代码中使用只需用 @GlobalTransactional
注解开启一个全局事务即可。
前边说过 Seata AT 模式实现分布式事务,必须在相关的业务库中创建 undo_log
表来存数据回滚日志,表结构如下:
测试 Seata
项目中的服务调用过程如下图:
服务调用过程
启动各个服务后,我们直接请求下单接口看看效果,只要 order
订单表创建记录成功,storage
库存表 used
字段数量递增、account
余额表 used
字段数量递增则表示下单流程成功。
原始数据
请求后正向流程是没问题的,数据和预想的一样
下单数据
而且发现 TM
事务管理者 order-server
服务的控制台也打印出了两阶段提交的日志
控制台两次提交
那么再看看如果其中一个服务异常,会不会正常回滚呢?在 account-server
服务中模拟超时异常,看能否实现全局事务回滚。
全局事务回滚
发现数据全没执行成功,说明全局事务回滚也成功了
那看一下 undo_log
回滚记录表的变化情况,由于 Seata
删除回滚日志的速度很快,所以要想在表中看见回滚日志,必须要在某一个服务上打断点才看的更明显。
回滚记录
总结
上边简单介绍了 2PC
、3PC
、TCC
、MQ
、Seata
这五种分布式事务解决方案,还详细的实践了 Seata
中间件。但不管我们选哪一种方案,在项目中应用都要谨慎再谨慎,除特定的数据强一致性场景外,能不用尽量就不要用,因为无论它们性能如何优越,一旦项目套上分布式事务,整体效率会几倍的下降,在高并发情况下弊端尤为明显。
评论