微服务保护和分布式事务
文章目录
- 一、微服务保护
- 1.1 微服务保护方案:
- 1.1.1 请求限流:
- 1.1.2 线程隔离:
- 1.1.3 服务熔断:
- 1.2 Sentinel:
- 1.2.1 介绍和安装:
- 1.2.2 微服务整合:
- 1.3 请求限流:
- 1.4 线程隔离:
- 1.4.1 OpenFeign 整合 Sentinel:
- 1.4.2 配置线程隔离:
- 1.5 服务熔断:
- 1.5.1 编写降级逻辑:
- 1.5.2 服务熔断:
- 二、分布式事务
- 2.1 认识 Seata:
- 2.2 微服务集成 Seata:
- 2.2.1 引入依赖:
- 2.2.2 配置:
- 2.2.3 添加数据库表:
- 2.3 XA 模式:
- 2.3.1 两阶段提交:
- 2.3.2 Seata 的 XA 模型:
- 2.3.3 优缺点:
- 2.3.4 实现步骤:
- 2.4 AT 模式:
- 2.4.1 Seata 的 AT 模式:
- 2.4.2 AT 与 XA 的区别:
一、微服务保护
保证服务运行的健壮性,避免级联失败导致的雪崩问题,就属于微服务保护。
为了方便讲解,下面的商品服务是故障方,购物车服务是故障调用方。
1.1 微服务保护方案:
微服务保护的方案有很多,比如:
- 请求限流
- 线程隔离
- 服务熔断
这些方案或多或少都会导致服务的体验上略有下降,比如请求限流,降低了并发上限;线程隔离,降低了可用资源数量;服务熔断,降低了服务的完整度,部分服务变的不可用或弱可用。因此这些方案都属于服务降级的方案。但通过这些方案,服务的健壮性得到了提升。
1.1.1 请求限流:
服务故障最重要原因,就是并发太高!解决了这个问题,就能避免大部分故障。当然,接口的并发不是一直很高,而是突发的。因此请求限流,就是限制或控制接口访问的并发流量,避免服务因流量激增而出现故障。
请求限流往往会有一个限流器,数量高低起伏的并发请求曲线,经过限流器就变的非常平稳。
1.1.2 线程隔离:
当一个业务接口响应时间长,而且并发高时,就可能耗尽服务器的线程资源,导致服务内的其它接口受到影响。所以我们必须把这种影响降低,或者缩减影响的范围。线程隔离正是解决这个问题的好办法。
线程隔离的思想来自轮船的舱壁模式:
轮船的船舱会被隔板分割为N个相互隔离的密闭舱,假如轮船触礁进水,只有损坏的部分密闭舱会进水,而其他舱由于相互隔离,并不会进水。这样就把进水控制在部分船体,避免了整个船舱进水而沉没。
为了避免某个接口故障或压力过大导致整个服务不可用,我们可以限定每个接口可以使用的资源范围,也就是将其“隔离”起来。
如图所示,我们给查询购物车业务限定可用线程数量上限为20,这样即便查询购物车的请求因为查询商品服务而出现故障,也不会导致服务器的线程资源被耗尽,不会影响到其它接口。
1.1.3 服务熔断:
线程隔离虽然避免了雪崩问题,但故障服务
依然会拖慢服务调用方
的接口响应速度。而且故障服务
依然会导致服务调用方
出现故障,服务调用方
也变的不可用了。
所以,我们要做两件事情:
-
编写服务降级逻辑:就是服务调用失败后的处理逻辑,根据业务场景,可以抛出异常,也可以返回友好提示或默认数据。
-
异常统计和熔断:统计服务提供方的异常比例,当比例过高表明该接口会影响到其它服务,应该拒绝调用该接口,而是直接走降级逻辑。
1.2 Sentinel:
微服务保护的技术有很多,但在目前国内使用较多的还是 Sentinel,所以接下来我们学习 Sentinel 的使用。
1.2.1 介绍和安装:
Sentinel 是阿里巴巴开源的一款服务保护框架,目前已经加入 SpringCloudAlibaba 中。官方网站:
https://sentinelguard.io/zh-cn/
Sentinel 的使用可以分为两个部分:
- 核心库(Jar包):不依赖任何框架/库,能够运行于 Java 8 及以上的版本的运行时环境,同时对 Dubbo / Spring Cloud 等框架也有较好的支持。在项目中引入依赖即可实现服务限流、隔离、熔断等功能。
- 控制台(Dashboard):Dashboard 主要负责管理推送规则、监控、管理机器信息等。
下载和运行访问:
-
去官网上进行下载,需要注意的是,下载完成后需要将jar包放在任意非中文、不包含特殊字符的目录下,重命名为
sentinel-dashboard.jar
-
启动 jar 包所在文件目录的控制台,输入以下命令:
java -Dserver.port=8090 -Dcsp.sentinel.dashboard.server=localhost:8090 -Dproject.name=sentinel-dashboard -jar sentinel-dashboard.jar
- 访问 http://localhost:8090 页面,就可以看到 sentinel 的控制台了:
需要输入账号和密码,默认都是:sentinel
登录后,即可看到控制台,默认会监控 sentinel-dashboard 服务本身:
1.2.2 微服务整合:
需要在哪个微服务整合 Sentinel 就在对应的微服务,按照下面这些步骤进行执行。
- 引入 Sentinel 依赖:
<!--sentinel-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-sentinel</artifactId>
</dependency>
- 配置控制台:
修改 application.yaml 文件,添加下面内容:
- 访问对应微服务的任意接口:
重启微服务,然后访问接口,sentinel 的客户端就会将服务访问的信息提交到 sentinel-dashboard
控制台。并展示出统计信息,如下图:
点击簇点链路菜单,会看到下面的页面:
所谓簇点链路,就是单机调用链路,是一次请求进入服务后经过的每一个被 Sentinel
监控的资源。默认情况下,Sentinel
会监控SpringMVC
的每一个 Endpoint
(接口)。
因此,我们看到/carts
这个接口路径就是其中一个簇点,我们可以对其进行限流、熔断、隔离等保护措施。
我们可以选择打开 Sentinel 的请求方式前缀,把请求方式 + 请求路径
作为簇点资源名:
在application.yml
中添加下面的配置:
spring:
cloud:
sentinel:
transport:
dashboard: localhost:8090
http-method-specify: true # 开启请求方式前缀
然后,重启服务,通过页面访问购物车的相关接口,可以看到 sentinel 控制台的簇点链路发生了变化:
1.3 请求限流:
在簇点链路后面点击流控按钮,即可对其做限流配置:
在弹出的菜单中填写:
这样就把查询购物车列表这个簇点资源的流量限制在了每秒 6 个,也就是最大 QPS 为 6。
1.4 线程隔离:
限流可以降低服务器压力,尽量减少因并发流量引起的服务故障的概率,但并不能完全避免服务故障。一旦某个服务出现故障,我们必须隔离对这个服务的调用,避免发生雪崩。
1.4.1 OpenFeign 整合 Sentinel:
application.yml文件,开启 Feign 的 sentinel 功能:
feign:
sentinel:
enabled: true # 开启feign对sentinel的支持
然后重启对应微服务,可以看到调用另一个微服务 FeignClient 自动变成了一个簇点资源:
1.4.2 配置线程隔离:
接下来,点击对应微服务接口的 FeignClient 对应的簇点资源后面的流控按钮:
在弹出的表单中填写下面内容:
注意,这里勾选的是并发线程数限制,也就是说这个查询功能最多使用 5 个线程,而不是 5 QPS。如果查询商品的接口每秒处理 2 个请求,则 5 个线程的实际 QPS 在 10 左右,而超出的请求自然会被拒绝。
1.5 服务熔断:
上面使用线程隔离导致了一些问题如下:
第一,超出的 QPS 上限的请求就只能抛出异常,从而导致购物车的查询失败。但从业务角度来说,即便没有查询到最新的商品信息,购物车也应该展示给用户,用户体验更好。也就是给查询失败设置一个降级处理逻辑。
第二,由于查询商品的延迟较高,从而导致查询购物车(购物车接口里面调用商品接口,涉及不同微服务之间的调用)的响应时间也变的很长。这样不仅拖慢了购物车服务,消耗了购物车服务的更多资源,而且用户体验也很差。对于商品服务这种不太健康的接口,我们应该直接停止调用,直接走降级逻辑,避免影响到当前服务。也就是将商品查询接口熔断。
1.5.1 编写降级逻辑:
触发限流或熔断后的请求不一定要直接报错,也可以返回一些默认数据或者友好提示,用户体验会更好。
给 FeignClient 编写失败后的降级逻辑有两种方式:
- 方式一:FallbackClass,无法对远程调用的异常做处理
- 方式二:FallbackFactory,可以对远程调用的异常做处理,我们一般选择这种方式。
这里我们演示方式二的失败降级处理。
涉及 ItemClient 接口,该接口是 OpenFeign 客户端。
步骤一:给ItemClient
定义降级处理类,实现FallbackFactory
:
代码如下:
@FeignClient(value = "item-service",
configuration = DefaultFeignConfig.class,
fallbackFactory = ItemClientFallback.class)
public interface ItemClient {
@GetMapping("/items")
List<ItemDTO> queryItemByIds(@RequestParam Collection<Long> ids);
@PutMapping("/items/stock/deduct")
void deductStock(@RequestBody List<OrderDetailDTO> items);
}
// 实现FallbackFactory
@Slf4j
public class ItemClientFallback implements FallbackFactory<ItemClient> {
@Override
public ItemClient create(Throwable cause) {
return new ItemClient() {
@Override
public List<ItemDTO> queryItemByIds(Collection<Long> ids) {
log.error("远程调用ItemClient#queryItemByIds方法出现异常,参数:{}", ids, cause);
// 查询购物车允许失败,查询失败,返回空集合
return CollUtils.emptyList();
}
@Override
public void deductStock(List<OrderDetailDTO> items) {
// 库存扣减业务需要触发事务回滚,查询失败,抛出异常
throw new BizIllegalException(cause);
}
};
}
}
步骤二:将刚刚创建的实现了 FallbackFactory 接口的实现类,加入到 spring 容器中。
这里我使用方法注解创建。
@Bean
public ItemClientFallback itemClientFallback(){
return new ItemClientFallback();
}
步骤三:在ItemClient
接口中使用ItemClientFallbackFactory
:
1.5.2 服务熔断:
对于不太健康的接口,我们应该停止调用,直接走降级逻辑,避免影响到当前服务。也就是将商品查询接口熔断。当商品服务接口恢复正常后,再允许调用。这其实就是断路器的工作模式了。
Sentinel中的断路器不仅可以统计某个接口的慢请求比例,还可以统计异常请求比例。当这些比例超出阈值时,就会熔断该接口,即拦截访问该接口的一切请求,降级处理;当该接口恢复正常时,再放行对于该接口的请求。
断路器的工作状态切换有一个状态机来控制:
状态机包括三个状态:
- closed:关闭状态,断路器放行所有请求,并开始统计异常比例、慢请求比例。超过阈值则切换到 open 状态。
- open:打开状态,服务调用被熔断,访问被熔断服务的请求会被拒绝,快速失败,直接走降级逻辑。open 状态持续一段时间后,会进入 half-open 状态。
- half-open:半开状态,放行一次请求,根据执行结果来判断接下来的操作。
- 请求成功:则切换到 closed 状态。
- 请求失败:则切换到 open 状态。
我们可以在控制台通过点击簇点后的**熔断
**按钮来配置熔断策略:
在弹出的表格中这样填写:
这种是按照慢调用比例来做熔断,上述配置的含义是:
- RT超过 200 毫秒的请求调用就是慢调用。
- 统计最近 1000ms 内的最少 5 次请求,如果慢调用比例不低于 0.5,则触发熔断。
- 熔断持续时长 20s。
二、分布式事务
首先我们看看项目中的下单业务整体流程(主要理解思路):
由于订单、购物车、商品分别在三个不同的微服务,而每个微服务都有自己独立的数据库,因此下单过程中就会跨多个数据库完成业务。而每个微服务都会执行自己的本地事务:
- 交易服务:下单事务。
- 购物车服务:清理购物车事务。
- 库存服务:扣减库存事务。
整个业务中,各个本地事务是有关联的。因此每个微服务的本地事务,也可以称为分支事务。多个有关联的分支事务一起就组成了全局事务。我们必须保证整个全局事务同时成功或失败。
我们知道每一个分支事务就是传统的单体事务,都可以满足 ACID 特性,但全局事务跨越多个服务、多个数据库,不遵守 ACID 原则,归其原因就是参与事务的多个子业务在不同的微服务,跨越了不同的数据库。虽然每个单独的业务都能在本地遵循ACID,但是它们互相之间没有感知,不知道有人失败了,无法保证最终结果的统一,也就无法遵循ACID的事务特性了。
这就是分布式事务问题,出现以下情况之一就可能产生分布式事务问题:
- 业务跨多个服务实现
- 业务跨多个数据源实现
下面我们来学习一下如何解决分布式事务。
2.1 认识 Seata:
解决分布式事务的方案有很多,但实现起来都比较复杂,因此我们一般会使用开源的框架来解决分布式事务问题。在众多的开源分布式事务框架中,功能最完善、使用最多的就是阿里巴巴在 2019 年开源的 Seata 了。
其实分布式事务产生的一个重要原因,就是参与事务的多个分支事务互相无感知,不知道彼此的执行状态。因此解决分布式事务的思想非常简单:
就是找一个统一的事务协调者,与多个分支事务通信,检测每个分支事务的执行状态,保证全局事务下的每一个分支事务同时成功或失败即可。大多数的分布式事务框架都是基于这个理论来实现的。
Seata也不例外,在Seata的事务管理中有三个重要的角色:
- TC **(Transaction Coordinator) -事务协调者:**维护全局和分支事务的状态,协调全局事务提交或回滚。
- TM (Transaction Manager) - **事务管理器:**定义全局事务的范围、开始全局事务、提交或回滚全局事务。
- RM (Resource Manager) - **资源管理器:**管理分支事务,与TC交谈以注册分支事务和报告分支事务的状态,并驱动分支事务提交或回滚。
Seata 的工作架构如图所示:
其中,TM和RM可以理解为Seata的客户端部分,引入到参与事务的微服务依赖中即可。将来TM和RM就会协助微服务,实现本地分支事务与TC之间交互,实现事务的提交或回滚。
而TC服务则是事务协调中心,是一个独立的微服务,需要单独部署。
部署 TC 服务:
由于博客不好携带文件,所以如何部署 TC 服务,就需要友友自己去网上找找了。
2.2 微服务集成 Seata:
参与分布式事务的每一个微服务都需要集成 Seata,我们以trade-service
为例。
2.2.1 引入依赖:
<!--seata-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-seata</artifactId>
</dependency>
2.2.2 配置:
seata:
registry: # TC服务注册中心的配置,微服务根据这些信息去注册中心获取tc服务地址
type: nacos # 注册中心类型 nacos
nacos:
server-addr: 192.168.242.128:8848 # nacos地址
namespace: "" # namespace,默认为空
group: DEFAULT_GROUP # 分组,默认是DEFAULT_GROUP
application: seata-server # seata服务名称
username: nacos
password: nacos
tx-service-group: hmall # 事务组名称
service:
vgroup-mapping: # 事务组与tc集群的映射关系
hmall: "default"
data-source-proxy-mode: AT # 选择分布式事务模式
2.2.3 添加数据库表:
这里需要在原来的数据库添加一张表:
-- for AT mode you must to init this sql for you business database. the seata server not need it.
CREATE TABLE IF NOT EXISTS `undo_log`
(
`branch_id` BIGINT NOT NULL COMMENT 'branch transaction id',
`xid` VARCHAR(128) NOT NULL COMMENT 'global transaction id',
`context` VARCHAR(128) NOT NULL COMMENT 'undo_log context,such as serialization',
`rollback_info` LONGBLOB NOT NULL COMMENT 'rollback info',
`log_status` INT(11) NOT NULL COMMENT '0:normal status,1:defense status',
`log_created` DATETIME(6) NOT NULL COMMENT 'create datetime',
`log_modified` DATETIME(6) NOT NULL COMMENT 'modify datetime',
UNIQUE KEY `ux_undo_log` (`xid`, `branch_id`)
) ENGINE = InnoDB
AUTO_INCREMENT = 1
DEFAULT CHARSET = utf8mb4 COMMENT ='AT transaction mode undo table';
2.3 XA 模式:
Seata 支持四种不同的分布式事务解决方案:
- XA
- TCC
- AT
- SAGA
这里我们以XA
模式和AT
模式来给大家讲解其实现原理。
XA
规范是 X/Open
组织定义的分布式事务处理(DTP,Distributed Transaction Processing)标准,XA 规范描述了全局的TM
与局部的RM
之间的接口,几乎所有主流的数据库都对 XA 规范提供了支持。
2.3.1 两阶段提交:
正常情况:
异常情况:
一阶段:
- 事务协调者通知每个事务参与者执行本地事务。
- 本地事务执行完成后报告事务执行状态给事务协调者,此时事务不提交,继续持有数据库锁。
二阶段:
- 事务协调者基于一阶段的报告来判断下一步操作。
- 如果一阶段都成功,则通知所有事务参与者,提交事务。
- 如果一阶段任意一个参与者失败,则通知所有事务参与者回滚事务。
2.3.2 Seata 的 XA 模型:
Seata 对原始的 XA 模式做了简单的封装和改造,以适应自己的事务模型,基本架构如图:
RM
一阶段的工作:
- 注册分支事务到
TC
。 - 执行分支业务 sql 但不提交。
- 报告执行状态到
TC
。
RM
二阶段的工作:
- 接收
TC
指令,提交或回滚事务。
2.3.3 优缺点:
XA
模式的优点是什么?
- 事务的强一致性(只要事务不提交或回滚,会一直持有数据库锁),满足 ACID 原则。
- 常用数据库都支持,实现简单,并且没有代码侵入。
XA
模式的缺点是什么?
- 因为一阶段需要锁定数据库资源,等待二阶段结束才释放,性能较差。
- 依赖关系型数据库实现事务。
2.3.4 实现步骤:
首先,我们要在配置文件中指定要采用的分布式事务模式。
seata:
data-source-proxy-mode: XA
其次,我们要利用@GlobalTransactional
标记分布式事务的入口方法(调用者):
2.4 AT 模式:
AT
模式同样是分阶段提交的事务模型,不过缺弥补了XA
模型中资源锁定周期过长的缺陷。
2.4.1 Seata 的 AT 模式:
基本流程图:
阶段一RM
的工作:
- 注册分支事务。
- 记录 undo-log(数据快照)。
- 执行业务 sql 并提交。
- 报告事务状态。
阶段二提交时RM
的工作:
- 删除 undo-log 即可。
阶段二回滚时RM
的工作:
- 根据 undo-log 恢复数据到更新前。
2.4.2 AT 与 XA 的区别:
简述AT
模式与XA
模式最大的区别是什么?
XA
模式一阶段不提交事务,锁定资源;AT
模式一阶段直接提交,不锁定资源。XA
模式依赖数据库机制实现回滚;AT
模式利用数据快照实现数据回滚。XA
模式强一致;AT
模式最终一致。
可见,AT 模式使用起来更加简单,无业务侵入,性能更好。因此企业 90% 的分布式事务都可以用 AT 模式来解决。
参考文献:
- 黑马程序员
结语:
其实写博客不仅仅是为了教大家,同时这也有利于我巩固知识点,和做一个学习的总结,由于作者水平有限,对文章有任何问题还请指出,非常感谢。如果大家有所收获的话,还请不要吝啬你们的点赞收藏和关注,这可以激励我写出更加优秀的文章。