文章23 | 阅读 16361 | 点赞0
本文基于seata 1.3.0版本
seata是由阿里巴巴开源的分布式事务框架,用于在分布式环境中保持事务一致性。它提供了四种事务模式:AT、TCC、SAGA 和 XA 事务模式,默认是AT模式。
Seata是客户端-服务器模式,涉及了三种角色:TC、TM和RM。TC是单独部署于服务端,RM和TM位于客户端。
角色 | 英文名 | 中文名 | 作用 |
---|---|---|---|
TC | Transaction Coordinator | 事务协调者 | 维护全局和分支事务的状态,驱动全局事务提交或回滚。 |
TM | Transaction Manager | 事务管理器 | 定义全局事务的范围:开始全局事务、提交或回滚全局事务。 |
RM | Resource Manager | 资源管理器 | 管理分支事务处理的资源,与TC交谈以注册分支事务和报告分支事务的状态,并驱动分支事务提交或回滚。 |
三者之间的关系如下图(该图来自于官网):
其中RM和TM与业务系统部署在一起,TC做为服务端部署。
TM 请求 TC 开启一个全局事务。TC 会生成一个 XID 作为该全局事务的编号。
XID,会在微服务的调用链路中传播,保证将多个微服务的子事务关联在一起。
RM 请求 TC 将本地事务注册为全局事务的分支事务,通过全局事务的 XID 进行关联。
TM 请求 TC 告诉 XID 对应的全局事务是进行提交还是回滚。
TC 驱动 RM 们将 XID 对应的自己的本地事务进行提交还是回滚
至于详细的技术细节,在以后的文章中做介绍。本文主要介绍如何启动seata,并完成事务操作。
seata的服务端是单独启动的,可以从https://github.com/seata/seata/releases下载最新的包。下载之后解压缩可以看到目录结构如下:
下面来看一下server端的启动命令,键入seata-server.bat -help可以得到启动命令说明:
参数 | 全写 | 作用 | 备注 |
---|---|---|---|
-h | - -host | 指定在注册中心注册的 IP | 不指定时获取当前的 IP,外部访问部署在云环境和容器中的 server 建议指定 |
-p | - -port | 指定 server 启动的端口 | 默认为 8091 |
-m | - -storeMode | 事务日志存储方式 | 支持file,db,redis,默认为file 注:redis需seata-server 1.3版本及以上 |
-n | - -serverNode | 用于指定seata-server节点ID | 如 1,2,3…, 默认为 1 |
-e | - -seataEnv | 指定 seata-server 运行环境 | 如 dev, test 等, 服务启动时会使用 registry-dev.conf 这样的配置 |
-h | –help | 返回帮助信息 |
本文注册中心使用的是zookeeper,配置中心使用文件,因此对registry.conf文件做如下修改:
registry {
type = "zk"
zk {
cluster = "default" //表示当前服务端所属集群,服务端启动后会在zk上创建default节点,并将本机ip写入该节点
serverAddr = "127.0.0.1:2181"
sessionTimeout = 6000
connectTimeout = 2000
username = ""
password = ""
}
}
config {
type = "file"//表示服务端的所有配置信息都在文件中
file {
name = "file.conf"
}
}
file.conf文件不做修改,默认事务日志保存在文件中。
接下来使用下面的命令直接启动服务端,-m file表示使用文件存储事务日志,也可以使用db,使用db需要在数据库中创建对应的表:
.\seata-server.bat -p 8091 -h 127.0.0.1 -m file
在控制台上看到如下信息表示启动成功:
Server started, listen port: 8091
客户端参照官网事例设计一个简化版的微服务场景。该场景需要使用dubbo发布服务。首先看一下pom.xml需要依赖的内容:
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-alibaba-seata</artifactId>
<version>2.1.0.RELEASE</version>
</dependency>
<dependency>
<groupId>com.github.sgroschupf</groupId>
<artifactId>zkclient</artifactId>
<version>0.1</version>
</dependency>
<dependency>
<groupId>io.seata</groupId>
<artifactId>seata-all</artifactId>
<version>1.3.0</version>
</dependency>
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-openfeign</artifactId>
<version>2.0.0.RELEASE</version>
</dependency>
创建三个业务类接口,并将其实现发布为dubbo服务:
public interface AccountProcessor {
public void createOrder();
}
public interface OrderProcessor {
public void createOrder();
}
public interface StorageProcessor {
public void createStorage();
}
//以AccountProcessor实现类为例,三个接口对应的实现类如下,其他的实现类类似,都是直接插入一条数据:
@Service //@Service注解的作用是表示以dubbo服务的形式发布服务
@Component("accountProcessor")
public class AccountProcessorImpl implements AccountProcessor {
@Autowired
private AccountMapper accountMapper;//accountMapper用于向数据库中插入记录
public void createOrder(){
Account account=new Account();
account.setName("测试账户A");
account.setAccount(100000.00);
accountMapper.insertSelective(account);//将上述Account对象插入到数据库
}
}
数据库创建三个业务表,与上面三个接口对应:
CREATE TABLE `account` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`name` varchar(255) DEFAULT NULL,
`account` double DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=15 DEFAULT CHARSET=utf8;
CREATE TABLE `order` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`name` varchar(255) DEFAULT NULL,
`amount` double DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=9 DEFAULT CHARSET=utf8;
CREATE TABLE `storage` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`name` varchar(255) DEFAULT NULL,
`good_1` int(11) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=4 DEFAULT CHARSET=utf8;
然后还需要创建undo_log表,这是Seata用于事务回滚使用的。
CREATE TABLE `undo_log` (
`id` bigint(20) NOT NULL AUTO_INCREMENT,
`branch_id` bigint(20) NOT NULL,
`xid` varchar(100) NOT NULL,
`context` varchar(128) NOT NULL,
`rollback_info` longblob NOT NULL,
`log_status` int(11) NOT NULL,
`log_created` datetime NOT NULL,
`log_modified` datetime NOT NULL,
`ext` varchar(100) DEFAULT NULL,
PRIMARY KEY (`id`),
UNIQUE KEY `ux_undo_log` (`xid`,`branch_id`)
) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;
Seata要求数据源必须使用DataSourceProxy代理,因此dubbo服务访问数据库的数据源需要使用DataSourceProxy封装:
@Bean
public DataSource dataSource(){
BasicDataSource ds=new BasicDataSource();
ds.setUsername("root");
ds.setPassword("XXX");
ds.setUrl("jdbc:mysql://localhost:3306/test?useUnicode=true&characterEncoding=UTF-8&serverTimezone=GMT%2B8");
ds.setDriverClassName("com.mysql.jdbc.Driver");
return new DataSourceProxy(ds);
}
代码介绍完了,下面要介绍一下如何修改配置。
application.properties文件需要增加如下两个配置:
spring.application.name=seata.test //必须配置,否则启动报错
//表示seata服务分组,要与file.conf文件的service.vgroup_mapping保持一致
spring.cloud.alibaba.seata.tx-service-group=my_test_tx_group
file.conf文件中其他部分不做改动,只对service部分做以下修改:
service {
# seata.test是当前微服务spring.application.name的值,后面的-fescar-service-group是固定字符串
#vgroup_mapping.seata.test-fescar-service-group与vgroupMapping.my_test_tx_group作用是一样的,当后者没有配置时,前者才会起作用
#vgroup_mapping.seata.test-fescar-service-group = "default"
#vgroupMapping后面的内容是application.properties文件的
#spring.cloud.alibaba.seata.tx-service-group的值
vgroupMapping.my_test_tx_group = "default" #该属性的值与TC所属集群的名字相同
#only support single node
default.grouplist = "localhost:8091" # 修改为你的seata服务端的地址
#degrade current not support
enableDegrade = false
#disable
disable = false
#unit ms,s,m,h,d represents milliseconds, seconds, minutes, hours, days, default permanent
max.commit.retry.timeout = "-1"
max.rollback.retry.timeout = "-1"
}
registry.conf文件与第一节服务端启动里面的文件内容一致。
上面的内容修改完毕之后,我们就可以启动dubbo服务了,dubbo服务启动成功之后,三个业务类接口就可以对外提供服务。
下面我们再创建一个工程,用于串起来访问dubbo服务,并实现Seata事务的功能。
pom.xml文件、registry.conf文件、application.properties文件、file.conf文件与上面修改内容一致。
下面创建Processor类将dubbo服务串起来访问,并验证事务回滚机制。
@Component("processor")
public class Processor {
@Reference
private AccountProcessor accountProcessor;
@Reference
private OrderProcessor orderProcessor;
@Reference
private StorageProcessor storageProcessor;
//GlobalTransactional是表示全局事务的注解,Seata提供
@GlobalTransactional(timeoutMills = 300000)
public void process(){
System.out.println("开始全局事务,XID = " + RootContext.getXID());
accountProcessor.createOrder();
orderProcessor.createOrder();
//用于验证事务回滚
//if(true){
//throw new RuntimeException("模拟报错");
//}
storageProcessor.createStorage();
}
}
当我们需要全局事务的时候,必须配置注解@GlobalTransactional。
接下来我们就可以运行Processor类了。如果运行正常可以打印出如下日志:
08-03 12:09:51.725 website=[] [rpcMergeMessageSend_TMROLE_1_1] INFO - register TM success. client version:1.3.0, server version:1.3.0,channel:[id: 0xb0145080, L:/192.168.56.1:52236 - R:/192.168.56.1:8091] - i.s.c.r.n.TmNettyRemotingClient
08-03 12:09:51.726 website=[] [rpcMergeMessageSend_TMROLE_1_1] INFO - register success, cost 81 ms, version:1.3.0,role:TMROLE,channel:[id: 0xb0145080, L:/192.168.56.1:52236 - R:/192.168.56.1:8091] - i.s.c.r.n.NettyPoolableFactory
08-03 12:09:51.737 website=[] [main] INFO - Begin new global transaction [192.168.56.1:8091:33523359467704320] - i.s.t.a.DefaultGlobalTransaction
开始全局事务,XID = 192.168.56.1:8091:33523359467704320
08-03 12:09:52.060 website=[] [main] INFO - [192.168.56.1:8091:33523359467704320] commit status: Committed - i.s.t.a.DefaultGlobalTransaction
08-03 12:10:29.647 website=[] [timeoutChecker_2_1] INFO - will connect to 192.168.56.1:8091 - i.s.c.r.n.NettyClientChannelManager
08-03 12:10:29.651 website=[] [timeoutChecker_2_1] INFO - NettyPool create channel to transactionRole:RMROLE,address:192.168.56.1:8091,msg:< RegisterRMRequest{resourceIds='null', applicationId='seata.test', transactionServiceGroup='my_test_tx_group'} > - i.s.c.r.n.NettyPoolableFactory
如果日志显示“开始全局事务,XID=null”,表示全局事务开启不成功。可能服务分组配置不一致,需要仔细检查配置,或者服务端没有启动。
当放开Processor类的注释代码后,还可以看到事务回滚。
参考:
https://seata.io/zh-cn/docs/ops/deploy-server.html
版权说明 : 本文为转载文章, 版权归原作者所有 版权申明
原文链接 : https://blog.csdn.net/weixin_38308374/article/details/107596965
内容来源于网络,如有侵权,请联系作者删除!