面试 - Spring Cloud 面试题

面试 - Spring Cloud 面试题

文章目录

现在要求越来越高,很多公司都喜欢问微服务,尽管有些业务场景并不适合使用微服务架构…

我的spring系列相关笔记

下面的内容整理自网络上各个Spring Cloud面试题进行汇总

一:什么是微服务

微服务(Microservices)是一种软件架构风格,将一个大型应用程序划分为一组小型、自治且松耦合的服务。每个微服务负责执行特定的业务功能,并通过轻量级通信机制(如HTTP)相互协作。

优点 -> 每个微服务可以独立开发、部署和扩展,使得应用程序更加灵活、可伸缩和可维护

在微服务的架构演进中,一般可能会存在这样的演进方向:单体式–>服务化–>微服务。

对于具体的演进过程可以看我的这个文章了解

单体服务一般是所有项目最开始的样子:

  • 单体服务(Monolithic Service)是一种传统的软件架构方式,将整个应用程序作为一个单一的、紧耦合的单元进行开发和部署。单体服务通常由多个模块组成,这些模块共享同一个数据库和代码库。然而,随着应用程序规模的增长,单体服务可能变得庞大且难以维护,且部署和扩展困难。

后来,单体服务过大,维护困难,渐渐演变到了分布式的SOA:

  • SOA(Service-Oriented Architecture,面向服务的架构)是一种软件架构设计原则,强调将应用程序拆分为相互独立的服务,通过标准化的接口进行通信。SOA关注于服务的重用性和组合性,但并没有具体规定服务的大小。
  • 微服务是在SOA的基础上进一步发展而来,是一种特定规模下的服务拆分和部署方式。微服务架构强调将应用程序拆分为小型、自治且松耦合的服务,每个服务都专注于特定的业务功能。这种架构使得应用程序更加灵活、可伸缩和可维护。

需要注意的是,微服务是一种特定的架构风格,而SOA是一种设计原则。

微服务可以看作是对SOA思想的一种具体实践方式,但并不等同于SOA。

在这里插入图片描述

微服务与单体服务的区别在于规模和部署方式。微服务将应用程序拆分为更小的、自治的服务单元,每个服务都有自己的数据库和代码库,可以独立开发、测试、部署和扩展,带来了更大的灵活性、可维护性、可扩展性和容错性。

二:微服务的缺点

可以看我的这个文章

  1. 系统复杂性增加:一个服务拆成了多个服务,整体系统的复杂性增加,需要处理服务之间的通信、部署、监控和维护等方面的复杂性。
  2. 服务间通信开销:微服务之间通过网络进行通信,传递数据需要额外的网络开销和序列化开销,可能导致性能瓶颈和增加系统延迟。
  3. 数据一致性和事务管理:每个微服务都有自己的数据存储,数据一致性和跨服务的事务管理变得更加复杂,需要额外解决分布式事务和数据同步的问题。
  4. 部署和运维复杂性:微服务架构涉及多个独立部署的服务,对于部署、监控和容错机制的要求更高,需要建立适当的部署管道和自动化工具,以简化部署和运维过程。
  5. 团队沟通和协作成本:每个微服务都由专门的团队负责,可能增加团队之间的沟通和协作成本。需要有效的沟通渠道和协作机制,确保服务之间的协调和一致性。
  6. 服务治理和版本管理:随着微服务数量的增加,服务的治理和版本管理变得更加复杂。需要考虑服务的注册发现、负载均衡、监控和故障处理等方面,以确保整个系统的可靠性和稳定性。
  7. 分布式系统的复杂性:微服务架构涉及构建和管理分布式系统,而分布式系统本身具有一些固有的挑战,如网络延迟、分布式一致性和容错性。

简单说,采用微服务需要权衡这些问题和挑战,根据实际的需求来选择对应的技术方案,很多时候单体能搞定的也可以用单体,不能为了微服务而微服务。

三:有哪些微服务解决方案

目前最主流的微服务开源解决方案有三种:

1:Dubbo

Dubbo 是一个高性能、轻量级的 Java 微服务框架,最初由阿里巴巴(Alibaba)开发并于2011年开源。它提供了服务注册与发现、负载均衡、容错、分布式调用等功能,后来一度停止维护,在近两年,又重新开始迭代,并推出了Dubbo3。

Dubbo 使用基于 RPC(Remote Procedure Call)的通信模型,具有较高的性能和可扩展性。它支持多种传输协议(如TCP、HTTP、Redis)和序列化方式(如JSON、Hessian、Protobuf),可根据需求进行配置。

Dubbo更多地被认为是一个高性能的RPC(远程过程调用)框架,一些服务治理功能依赖于第三方组件实现,比如使用ZooKeeper、Apollo等等。

2:Spring Cloud Netflix

Spring Cloud Netflix 是 Spring Cloud 的一个子项目,结合了 Netflix 开源的多个组件,但是Netflix自2018年停止维护和更新Netflix OSS项目,包括Eureka、Hystrix等组件,所以Spring Cloud Netflix也逐渐进入了维护模式。

该项目包含了许多流行的 Netflix 组件,如Eureka(服务注册与发现)、Ribbon(客户端负载均衡)、Hystrix(断路器)、Zuul(API 网关)等。它们都是高度可扩展的、经过大规模实践验证的微服务组件。

3:Spring Cloud Alibaba

Spring Cloud Alibaba 是 Spring Cloud 的另一个子项目,与阿里巴巴的分布式应用开发框架相关。它提供了一整套与 Alibaba 生态系统集成的解决方案。

该项目包括 Nacos(服务注册与发现、配置管理)、Sentinel(流量控制、熔断降级)、RocketMQ(消息队列)等组件,以及与 Alibaba Cloud(阿里云)的集成。它为构建基于 Spring Cloud 的微服务架构提供了丰富的选项。

据说SpringCloud Alibaba项目的发起人已经跑路去了腾讯,并发起了SpringCloud Tecent项目,社区发展存在隐忧。

4:三者对比

微服务一般主要讨论的是Spring Cloud Netflix,其次是Spring Cloud Alibaba

Dubbo更多的是作为一个RPC框架来问

Dubbo -> Nacos + Apollo + Sentinel + Dubbo + Seata + Skywalking + Higress

Netflix -> Eureka + Config&Bus + Hystrix + Feign + Gateway + Zipkin

Alibaba -> Nacos + OpenFegin + Sentinel + Gateway + Seata + Skywalking

DubboNeflixAlibaba
底层开发语言JavaJavaJava
服务治理提供完整的服务治理功能提供部分服务治理功能提供完整的服务治理功能
注册中心ZK / NacosEureka / ConsulNacos
负载均衡自带负载均衡的策略RibbonRibbon / Dubbo
服务调用RPC方式RestTemplate/FeignFeign/RestTemplate/Dubbo
熔断器SentinelHystrixSentinel/Resilience4j
配置中心ApolloCloud ConfigNacos Config
API网关Higress/APISIXZuul/GatewayGateway
分布式事务Seata不支持分布式事务Seata
限流和降级SentinelHystrixSentinel
追踪和监控SkywalkingSleuth + ZipkinSkyWalking / Sentinel
微服务网格Dubbo Mesh不支持微服务网格Service Mesh(Nacos+Dubbo Mesh)
社区活跃度相对较高目前较低相对较高
成熟度成熟度较高成熟度较高孵化较新,但迅速发展

四:说下微服务有哪些组件

微服务给系统开发带来了一些问题和挑战,如服务调用的复杂性、分布式事务的处理、服务的动态管理等。

为了更好地解决这些问题和挑战,各种微服务治理的组件应运而生,充当微服务架构的基石和支撑。

最好看下的我的这个文章

在这里插入图片描述

注册中心:用于服务的注册与发现,管理微服务的地址信息。

  • Spring Cloud Netflix:Eureka、Consul
  • Spring Cloud Alibaba:Nacos

配置中心:用于集中管理微服务的配置信息,可以动态修改配置而不需要重启服务。

  • Spring Cloud Netflix:Spring Cloud Config
  • Spring Cloud Alibaba:Nacos Config

远程调用:用于在不同的微服务之间进行通信和协作

  • RESTful API:如RestTemplate、Feign
  • RPC(远程过程调用):如Dubbo、gRPC

API网关:作为微服务架构的入口,统一暴露服务,并提供路由、负载均衡、安全认证等功能。

  • Spring Cloud Netflix:Zuul、Gateway
  • Spring Cloud Alibaba:Gateway、Apisix等

分布式事务:保证跨多个微服务的一致性和原子性操作。

  • Spring Cloud Alibaba:Seata

熔断器:用于防止微服务之间的故障扩散,提高系统的容错能力。

  • Spring Cloud Netflix:Hystrix
  • Spring Cloud Alibaba:Sentinel、Resilience4j

限流和降级:用于防止微服务过载,对请求进行限制和降级处理。

  • Spring Cloud Netflix:Hystrix
  • Spring Cloud Alibaba:Sentinel

分布式追踪和监控:用于跟踪和监控微服务的请求流程和性能指标。

  • Spring Cloud Netflix:Spring Cloud Sleuth + Zipkin
  • Spring Cloud Alibaba:SkyWalking、Sentinel Dashboard

五:注册中心相关

1:注册中心是用来干什么的

注册中心是用来管理和维护分布式系统中各个服务的地址和元数据的组件。

它主要用于实现服务发现服务注册功能。

在这里插入图片描述

  • 服务注册:各个服务在启动时向注册中心注册自己的网络地址、服务实例信息和其他相关元数据。这样,其他服务就可以通过注册中心获取到当前可用的服务列表。
  • 服务发现:客户端通过向注册中心查询特定服务的注册信息,获得可用的服务实例列表。这样客户端就可以根据需要选择合适的服务进行调用,实现了服务间的解耦。
  • 负载均衡:注册中心可以对同一服务的多个实例进行负载均衡,将请求分发到不同的实例上,提高整体的系统性能和可用性。
  • 故障恢复:注册中心能够监测和检测服务的状态,当服务实例发生故障或下线时,可以及时更新注册信息,从而保证服务能够正常工作。
  • 服务治理:通过注册中心可以进行服务的配置管理、动态扩缩容、服务路由、灰度发布等操作,实现对服务的动态管理和控制。

2:Eureka、ZK、Nacos的区别

核心记住CAP部分、访问协议部分和数据存储部分

EurekaZKNacos
公司NetflixApache阿里巴巴
CAPAPCP既支持AP,也支持CP
功能服务注册与发现分布式协调、配置管理、分布式锁服务注册与发现、配置管理、服务管理
定位适用于构建基于 HTTP 的微服务架构通用的分布式协调服务框架适用于微服务和云原生应用
访问协议HTTPTCPHTTP/DNS
自我保护支持-支持
数据存储内嵌数据库、多个实例形成集群ACID 特性的分布式文件系统 ZAB 协议内嵌数据库、MySQL 等
健康检查Client BeatKeep AliveTCP/HTTP/MYSQL/Client Beat
特点简单易用、自我保护机制高性能、强一致性动态配置管理、流量管理、灰度发布等

3:Eureka的实现原理

详情可以看我的这个文章

在这里插入图片描述

Eureka的实现原理,大概可以从这几个方面来看:

服务注册与发现:

当一个服务实例启动时,它会向Eureka Server发送注册请求,将自己的信息注册到注册中心。

Eureka Server会将这些信息保存在内存中,并提供REST接口供其他服务查询。

服务消费者可以通过查询服务实例列表来获取可用的服务提供者实例,从而实现服务的发现。

服务健康检查:

Eureka通过心跳机制来检测服务实例的健康状态。

服务实例会定期向Eureka Server发送心跳,也就是续约,以表明自己的存活状态。

如果Eureka Server在一定时间内没有收到某个服务实例的心跳,则会将其标记为不可用,并从服务列表中移除,下线实例。

服务负载均衡:

Eureka客户端在调用其他服务时,会从本地缓存中获取服务的注册信息。

如果缓存中没有对应的信息,则会向Eureka Server发送查询请求。

Eureka Server会返回一个可用的服务实例列表给客户端

客户端可以使用负载均衡算法选择其中一个进行调用。

其它的注册中心,如Nacos、Consul等等,在服务注册和发现上,实现原理都是大同小异。

4:Eureka Server怎么保证高可用

主要通过下面的三个方面保证高可用的:

多实例部署: 就是部署多个实例到不同的节点上

通过将多个Eureka Server实例部署在不同的节点上,可以实现高可用性。

当其中一个实例发生故障时,其他实例仍然可以提供服务,并保持注册信息的一致性。

服务注册信息的复制: 就是多个server实例可以互相复制信息

当一个服务实例向Eureka Server注册时,每个Eureka Server实例都会复制其他实例的注册信息,以保持数据的一致性。

当某个Eureka Server实例发生故障时,其他实例可以接管其工作,保证整个系统的正常运行。

自我保护机制: 防止服务因为网络抖动而被错误剔除

当Eureka Server节点在一定时间内没有接收到心跳时,它会进入自我保护模式。

在自我保护模式下,Eureka Server不再剔除注册表中的服务实例,以保护现有的注册信息。

这样可以防止由于网络抖动或其他原因导致的误剔除,进一步提高系统的稳定性。

六:配置中心相关

1:为什么微服务需要配置中心

微服务架构中的每个服务通常都需要一些配置信息,例如数据库连接地址、服务端口、日志级别等。

这些配置可能因为不同环境、不同部署实例或者动态运行时需要进行调整和管理。

微服务的实例一般非常多,如果每个实例都需要一个个地去做这些配置,那么运维成本将会非常大,这时候就需要一个集中化的配置中心,去管理这些配置。

2:可以选择哪些配置中心

  • Spring Cloud Config:官方推荐的配置中心,支持将配置文件存储在Git、SVN等版本控制系统中,并提供RESTful API进行访问和管理。
  • ZooKeeper:一个开源的分布式协调服务,可以用作配置中心。它具有高可用性、一致性和通知机制等特性。
  • Consul:另一个开源的分布式服务发现和配置管理工具,也可用作配置中心。支持多种配置文件格式,提供健康检查、故障转移和动态变更等功能。
  • Etcd:一个分布式键值存储系统,可用作配置中心。它使用基于Raft算法的一致性机制,提供分布式数据一致性保证。
  • Apollo:携程开源的配置中心,支持多种语言和框架。提供细粒度的配置权限管理、配置变更通知和灰度发布等高级特性,还有可视化的配置管理界面。
  • Nacos:阿里巴巴开源的服务发现、配置管理和服务管理平台,也可以作为配置中心使用。支持服务注册与发现、动态配置管理、服务健康监测和动态DNS服务等功能。

3:Nacos配置中心的原理

配置中心,说白了就是一句话:配置信息的CRUD。

在这里插入图片描述

  1. 配置信息存储:Nacos默认使用内嵌数据库Derby来存储配置信息,还可以采用MySQL等关系型数据库。
  2. 注册配置信息:服务启动时,Nacos Client会向Nacos Server注册自己的配置信息,这个注册过程就是把配置信息写入存储,并生成版本号。
  3. 获取配置信息:服务运行期间,Nacos Client通过API从Nacos Server获取配置信息。Server根据键查找对应的配置信息,并返回给Client。
  4. 监听配置变化:Nacos Client可以通过注册监听器的方式,实现对配置信息的监听。当配置信息发生变化时,Nacos Server会通知已注册的监听器,并触发相应的回调方法。

4:Nacos配置中心长轮询机制

一般来说客户端和服务端的交互分为两种:推(Push)和拉(Pull)

Nacos在Pull的基础上,采用了长轮询来进行配置的动态刷新。

在长轮询模式下,客户端定时向服务端发起请求,检查配置信息是否发生变更

没有变更的话服务端会"hold"住这个请求,即暂时不返回结果,直到配置发生变化或达到一定的超时时间。

在这里插入图片描述

  1. 客户端发起Pull请求,服务端检查配置是否有变更。如果没有变更,则设置一个定时任务,在一段时间后执行,并将当前的客户端连接加入到等待队列中。
  2. 在等待期间,如果配置发生变更,服务端会立即返回结果给客户端,完成一次"推送"操作。
  3. 如果在等待期间没有配置变更,等待时间达到预设的超时时间后,服务端会自动返回结果给客户端,即使配置没有变更。
  4. 如果在等待期间,通过Nacos Dashboard或API对配置进行了修改,会触发一个事件机制,服务端会遍历等待队列,找到发生变更的配置项对应的客户端连接,并将变更的数据通过连接返回,完成一次"推送"操作。

通过长轮询的方式,Nacos客户端能够实时感知配置的变化,并及时获取最新的配置信息。

同时,这种方式也降低了服务端的压力,避免了大量的长连接占用内存资源。

七:远程调用相关

1:能说下HTTP和RPC的区别吗

在这里插入图片描述

  • HTTP是一种应用层协议,主要强调的是网络通信;
  • RPC是一种用于分布式系统之间通信的协议,强调的是服务之间的远程调用。

一些RPC框架比如gRPC,底层传输协议其实也是用的HTTP2

Dubbo3,也兼容了gRPC,使用了HTTP2作为传输层的一层协议。

HTTPRPC
定义HTTP(超文本传输协议)是一种用于传输超文本的协议。RPC(远程过程调用)是一种用于实现分布式系统中不同节点之间通信的协议。
通信方式基于请求-响应模型,客户端发送请求,服务器返回响应。基于方法调用模型,客户端调用远程方法并等待结果。
传输协议基于TCP协议,可使用其他传输层协议如TLS/SSL进行安全加密。可以使用多种传输协议,如TCP、UDP等。
数据格式基于文本,常用的数据格式有JSON、XML等。可以使用各种数据格式,如二进制、JSON、Protocol Buffers等。
接口定义使用RESTful风格的接口进行定义,常用的方法有GET、POST、PUT、DELETE等。使用IDL(接口定义语言)进行接口定义,如Protocol Buffers、Thrift等。
跨语言性支持跨语言通信,可以使用HTTP作为通信协议实现不同语言之间的通信。支持跨语言通信,可以使用IDL生成不同语言的客户端和服务端代码。
灵活性更加灵活,适用于不同类型的应用场景,如Web开发、API调用等。更加高效,适用于需要高性能和低延迟的分布式系统。

微服务中,基于HTTP风格的远程调用通常使用框架如Feign来实现,基于RPC的远程调用通常使用框架如Dubbo来实现。

2:Feign和Dubbo的区别

FeignDubbo
定义Feign是一个声明式的Web服务客户端,用于简化HTTP API的调用。Dubbo是一个分布式服务框架,用于构建面向服务的微服务架构。
通信方式基于HTTP协议,使用RESTful风格的接口进行定义和调用。基于RPC协议,支持多种序列化协议如gRPC、Hessian等。
服务发现通常结合服务注册中心(如Eureka、Consul)进行服务发现和负载均衡。通过ZooKeeper、Nacos等进行服务注册和发现,并提供负载均衡功能。
服务治理不直接提供服务治理功能,需要结合其他组件或框架进行服务治理。提供服务注册与发现、负载均衡、容错机制、服务降级等服务治理功能。
跨语言性支持跨语言通信,可以使用HTTP作为通信协议实现不同语言之间的通信。支持跨语言通信,通过Dubbo的IDL生成不同语言的客户端和服务端代码。
生态系统集成了Spring Cloud生态系统,与Spring Boot无缝集成。拥有完整的生态系统,包括注册中心、配置中心、监控中心等组件。
适用场景适用于构建RESTful风格的微服务架构,特别适合基于HTTP的微服务调用。适用于构建面向服务的微服务架构,提供更全面的服务治理和容错机制。

需要注意的是,Feign和Dubbo并不是互斥的关系。

实际上,Dubbo可以使用HTTP协议作为通信方式,而Feign也可以集成RPC协议进行远程调用。

选择使用哪种远程调用方式取决于具体的业务需求和技术栈的选择。

3:说一下Fegin

Feign是一个声明式的Web服务客户端,它简化了使用基于HTTP的远程服务的开发。

Feign 内置了Ribbon,用来做客户端负载均衡调用服务注册中心的服务,使用 Feign 的注解定义接口,然后调用这个接口,就可以调用服务注册中心的服务

Feign 本身并不支持Spring MVC的注解,它有一套自己的注解,为了更方便的使用孵化了OpenFeign。

OpenFeigin还支持了Spring MVC的注解,如@RequestMapping,@PathVariable等等。

OpenFeign 的@FeignClient可以解析 Spring MVC 的 @RequestMapping 注解下的接口,通过动态代理方式产生实现类,实现类中做负载均衡调用服务。

下面是Fegin的主要功能和特点:

声明式API

Feign允许开发者使用简单的注解来定义和描述对远程服务的访问。

通过使用注解,开发者可以轻松地指定URL、HTTP方法、请求参数、请求头等信息,使得远程调用变得非常直观和易于理解

@Component
@FeignClient(value = "CLOUD-PAYMENT-SERVICE")
public interface PaymentFeignService {
    /**
     * 通过主键查询单条数据
     *
     * @param id 主键
     * @return 单条数据
     */
    @GetMapping("payment/selectOne/{id}")
    CommonResult<Payment> selectOne(@PathVariable("id") Long id);

    @GetMapping("payment/feign/timeout")
    String getFeignTimeOut();
}

负载均衡

Feign集成了Ribbon负载均衡器,可以自动实现客户端的负载均衡。

它可以根据服务名和可用实例进行动态路由,并分发请求到不同的服务实例上,提高系统的可用性和可伸缩性

容错机制

Feign支持集成Hystrix容错框架,可以在调用远程服务时提供容错和断路器功能。

当远程服务不可用或响应时间过长时,Feign可以快速失败并返回预设的响应结果,避免对整个系统造成级联故障

1️⃣ 在Spring Cloud Netflix环境中,Feign默认集成了Hystrix,可以通过以下方式配置:

feign:
  hystrix:
    enabled: true

2️⃣ 配置示例

@FeignClient(name = "service-name", fallback = MyFallback.class)
public interface MyServiceClient {
    @GetMapping("/endpoint")
    String getData();
}
@Component
public class MyFallback implements MyServiceClient {
    @Override
    public String getData() {
        return "fallback response";
    }
}

3️⃣ 如果需要获取触发回退的原因,可以使用FallbackFactory:

@FeignClient(name = "service-name", fallbackFactory = MyFallbackFactory.class)
public interface MyServiceClient {
    // ...
}

@Component
public class MyFallbackFactory implements FallbackFactory<MyServiceClient> {
    @Override
    public MyServiceClient create(Throwable cause) {
        return new MyServiceClient() {
            @Override
            public String getData() {
                log.error("Fallback triggered", cause);
                return "fallback due to: " + cause.getMessage();
            }
        };
    }
}

4️⃣ 重试机制和超时设计

spring:
  cloud:
    openfeign:
      retry:
        enabled: true # 设置openfeign开启重试
@Bean
public Retryer feignRetryer() {
    return new Retryer.Default(100, 1000, 3); // 间隔100ms开始,最大间隔1s,最多重试3次
}
# 超时配置
# 直接配置Feign客户端
feign:
  client:
    config:
      default:
        connectTimeout: 5000
        readTimeout: 5000

4:Feign第一次调用耗时很长

由于Ribbon的懒加载机制,当第一次调用发生时,Feign会触发Ribbon的加载过程,包括从服务注册中心获取服务列表、建立连接池等操作,这个加载过程会增加首次调用的耗时。

ribbon:
   eager-load:
     enabled: true
       clients: service-1

可以在应用启动时预热Feign客户端,自动触发一次无关紧要的调用,来提前加载Ribbon和其他相关组件。

这样,就相当于提前进行了第一次调用。

5:Feign怎么实现认证传递

最常用的方式,通过实现RequestInterceptor接口统一添加认证头:

@Bean
public RequestInterceptor requestTokenBearerInterceptor() {
    return requestTemplate -> {
        // 从安全上下文中获取Token
        String token = Optional.ofNullable(SecurityContextHolder.getContext())
                .map(SecurityContext::getAuthentication)
                .filter(authentication -> authentication.getCredentials() instanceof String)
                .map(Authentication::getCredentials)
                .map(String.class::cast)
                .orElse("");
        
        // 添加Authorization头
        if (!token.isEmpty()) {
            requestTemplate.header("Authorization", "Bearer " + token);
        }
    };
}

如果使用OAuth2,可以更简单地集成:

@Configuration
public class FeignConfig {
    @Bean
    public OAuth2FeignRequestInterceptor oAuth2FeignRequestInterceptor(
            OAuth2ClientContext oAuth2ClientContext,
            ClientCredentialsResourceDetails resource) {
        return new OAuth2FeignRequestInterceptor(oAuth2ClientContext, resource);
    }
}

还可以使用Spring Cloud OpenFeign的继承特性

@FeignClient(name = "service-name", configuration = FeignAuthConfig.class)
public interface MyServiceClient {
    // 方法定义
}

public class FeignAuthConfig {
    @Bean
    public RequestInterceptor oauth2FeignRequestInterceptor() {
        return new OAuth2FeignRequestInterceptor(...);
    }
}

6:负载均衡算法

在这里插入图片描述

轮询算法 - Round Robin

轮询算法是最简单的负载均衡算法之一。它按照顺序将请求依次分配给每个后端服务器,循环往复。当请求到达时,负载均衡器按照事先定义的顺序选择下一个服务器。轮询算法适用于后端服务器具有相同的处理能力和性能的场景。

加权轮询算法 - Weighted Round Robin

加权轮询算法在轮询算法的基础上增加了权重的概念。每个后端服务器都被赋予一个权重值,权重值越高,被选中的概率就越大。这样可以根据服务器的处理能力和性能调整请求的分配比例,使得性能较高的服务器能够处理更多的请求。

随机算法 - Random

随机算法将请求随机分配给后端服务器。每个后端服务器有相等的被选中概率,没有考虑服务器的实际负载情况。这种算法简单快速,适用于后端服务器性能相近且无需考虑请求处理能力的场景。

加权随机算法 - Weighted Random

加权随机算法在随机算法的基础上引入了权重的概念。每个后端服务器被赋予一个权重值,权重值越高,被选中的概率就越大。这样可以根据服务器的处理能力和性能调整请求的分配比例。

最少连接算法 - Least Connection

最少连接算法会根据后端服务器当前的连接数来决定请求的分配。负载均衡器会选择当前连接数最少的服务器进行请求分配,以保证后端服务器的负载均衡。这种算法适用于后端服务器的处理能力不同或者请求的处理时间不同的场景。

哈希算法 - Hash

哈希算法会根据请求的某个特定属性(如客户端IP地址、请求URL等)计算哈希值,然后根据哈希值选择相应的后端服务器。

八:降级,熔断,限流相关

1:什么是服务雪崩

在微服务中,假如一个或者多个服务出现故障,如果这时候,依赖的服务还在不断发起请求,或者重试,那么这些请求的压力会不断在下游堆积,导致下游服务的负载急剧增加。不断累计之下,可能会导致故障的进一步加剧,可能会导致级联式的失败,甚至导致整个系统崩溃,这就叫服务雪崩。

在这里插入图片描述

一般,为了防止服务雪崩,可以采用这些措施:

  • 服务高可用部署:确保各个服务都具备高可用性,通过冗余部署、故障转移等方式来减少单点故障的影响。
  • 限流和熔断:对服务之间的请求进行限流和熔断,以防止过多的请求涌入导致后端服务不可用。
  • 缓存和降级:合理使用缓存来减轻后端服务的负载压力,并在必要时进行服务降级,保证核心功能的可用性。

2:什么是熔断,什么是降级

服务熔断

服务熔断是微服务架构中的容错机制,用于保护系统免受服务故障或异常的影响。

当某个服务出现故障或异常时,服务熔断可以快速隔离该服务,确保系统稳定可用

它通过监控服务的调用情况,当错误率或响应时间超过阈值时,触发熔断机制,后续请求将返回默认值或错误信息,避免资源浪费和系统崩溃。

服务熔断还支持自动恢复,重新尝试对故障服务的请求,确保服务恢复正常后继续使用。【熔断三态】

服务降级

服务降级是也是一种微服务架构中的容错机制,用于在系统资源紧张或服务故障时保证核心功能的可用性。

当系统出现异常情况时,服务降级会主动屏蔽一些非核心或可选的功能,而只提供最基本的功能,以确保系统的稳定运行。通过减少对资源的依赖,服务降级可以保证系统的可用性和性能。

它可以根据业务需求和系统状况来制定策略,例如替换耗时操作、返回默认响应、返回静态错误页面等

3:有哪些熔断降级方案实现

框架实现方案特点
CloudHystrix提供线程隔离、服务降级、请求缓存、请求合并等功能
可与Spring Cloud其他组件无缝集成
官方已宣布停止维护,推荐使用Resilience4j代替
CloudResilience4j轻量级服务熔断库
提供类似于Hystrix的功能
具有更好的性能和更简洁的API
可与Spring Cloud其他组件无缝集成
AlibabaSentinel阿里巴巴开源的流量控制和熔断降级组件
提供实时监控、流量控制、熔断降级等功能
与Spring Cloud Alibaba生态系统紧密集成
DubboDubbo自带熔断降级机制Dubbo框架本身提供的熔断降级机制
可通过配置实现服务熔断和降级
与Dubbo的RPC框架紧密集成

4:Hystrix怎么实现服务容错

尽管已经不再更新,但是Hystrix是非常经典的服务容错开源库,它提供了多种机制来保护系统:

在这里插入图片描述

服务熔断(Circuit Breaker)

Hystrix通过设置阈值来监控服务的错误率或响应时间。

当错误率或响应时间超过预设的阈值时,熔断器将会打开,后续的请求将不再发送到实际的服务提供方,而是返回预设的默认值或错误信息。

这样可以快速隔离故障服务,防止故障扩散,提高系统的稳定性和可用性。

服务降级(Fallback)

当服务熔断打开时,Hystrix可以提供一个备用的降级方法或返回默认值,以保证系统继续正常运行。

开发者可以定义降级逻辑,例如返回缓存数据、执行简化的逻辑或调用其他可靠的服务,以提供有限但可用的功能。

import com.netflix.hystrix.contrib.javanica.annotation.HystrixCommand;

 /**
 * 服务降级示例
 **/
 @Service
 public class MyService {

     @HystrixCommand(fallbackMethod = "fallbackMethod")
     public String myServiceMethod() {
         // 实际的服务调用逻辑
         // ...
     }
     public String fallbackMethod() {
         // 降级方法的逻辑,当服务调用失败时会执行此方法
         // 可以返回默认值或执行其他备用逻辑
         // ...
     }
 }

请求缓存(Request Caching)

Hystrix可以缓存对同一请求的响应结果,当下次请求相同的数据时,直接从缓存中获取,避免重复的网络请求

这可以提高系统的性能和响应速度。

请求合并(Request Collapsing)

Hystrix可以将多个并发的请求合并为一个批量请求,减少网络开销和资源占用。

这对于一些高并发的场景可以有效地减少请求次数,提高系统的性能。

实时监控和度量(Real-time Monitoring and Metrics)

Hystrix提供了实时监控和度量功能,可以对服务的执行情况进行监控和统计,包括错误率、响应时间、并发量等指标。

通过监控数据,可以及时发现和解决服务故障或性能问题。

线程池隔离(Thread Pool Isolation)

Hystrix将每个依赖服务的请求都放在独立的线程池中执行,避免因某个服务的故障导致整个系统的线程资源耗尽。

通过线程池隔离,可以提高系统的稳定性和可用性。

5:Sentinel怎么实现限流的

Sentinel通过动态管理限流规则,根据定义的规则对请求进行限流控制。具体实现步骤如下:

定义资源 -> 配置限流规则 -> 监控流量 -> 执行限流策略

1️⃣ 定义资源:在Sentinel中,资源可以是URL、方法等,用于标识需要进行限流的请求。

// 原本的业务方法.
 @SentinelResource(blockHandler = "blockHandlerForGetUser")
 public User getUserById(String id) {
     throw new RuntimeException("getUserById command failed");
 }
 
 // blockHandler 函数,原方法调用被限流/降级/系统保护的时候调用
 public User blockHandlerForGetUser(String id, BlockException ex) {
     return new User("admin");
 }

2️⃣ 配置限流规则:在Sentinel的配置文件中定义资源的限流规则。规则可以包括资源名称、限流阈值、限流模式

🎉 当然你可以再sentinel Dashboard中配置对应的规则 - 流控规则

private static void initFlowQpsRule() {
    List<FlowRule> rules = new ArrayList<>();
    FlowRule rule1 = new FlowRule();
    rule1.setResource(resource);
    // Set max qps to 20
    rule1.setCount(20);
    rule1.setGrade(RuleConstant.FLOW_GRADE_QPS);
    rule1.setLimitApp("default");
    rules.add(rule1);
    FlowRuleManager.loadRules(rules);
}

3️⃣ 监控流量:Sentinel会监控每个资源的流量情况,包括请求的QPS(每秒请求数)、线程数、响应时间等

在这里插入图片描述

4️⃣ 限流控制:当请求到达时,Sentinel会根据资源的限流规则判断是否需要进行限流控制。如果请求超过了限流阈值,则可以进行限制、拒绝或进行其他降级处理

🎉 Sentinel使用滑动窗口限流算法来实现限流。

  • 滑动窗口限流算法是一种基于时间窗口的限流算法。
  • 它将一段时间划分为多个时间窗口,并在每个时间窗口内统计请求的数量。
  • 通过动态地调整时间窗口的大小和滑动步长,可以更精确地控制请求的通过速率。

6:Sentinel怎么实现集群限流

Sentinel利用了Token Server和Token Client的机制来实现集群限流。

开启集群限流后,Client向Token Server发送请求,Token Server根据配置的规则决定是否限流

在这里插入图片描述

<!-- Sentinel 核心依赖 -->
<dependency>
    <groupId>com.alibaba.csp</groupId>
    <artifactId>sentinel-core</artifactId>
    <version>1.8.6</version>
</dependency>

<!-- Sentinel 集群限流扩展 -->
<dependency>
    <groupId>com.alibaba.csp</groupId>
    <artifactId>sentinel-cluster-server-default</artifactId>
    <version>1.8.6</version>
</dependency>
<dependency>
    <groupId>com.alibaba.csp</groupId>
    <artifactId>sentinel-cluster-client-default</artifactId>
    <version>1.8.6</version>
</dependency>

<!-- 传输模块(如使用Netty) -->
<dependency>
    <groupId>com.alibaba.csp</groupId>
    <artifactId>sentinel-transport-simple-http</artifactId>
    <version>1.8.6</version>
</dependency>

九:服务网关部分

1:什么是API网关

API网关(API Gateway)是一种中间层服务器,用于集中管理、保护和路由对后端服务的访问。

它充当了客户端与后端服务之间的入口点,提供了一组统一的接口来管理和控制API的访问。

在这里插入图片描述

API网关的主要功能包括:

路由转发:

API网关根据请求的URL路径或其他标识,将请求路由到相应的后端服务。通过配置路由规则,可以灵活地将请求分发给不同的后端服务。

负载均衡:

API网关可以在后端服务之间实现负载均衡,将请求平均分发到多个实例上,提高系统的吞吐量和可扩展性。

安全认证与授权:

API网关可以集中处理身份验证和授权,确保只有经过身份验证的客户端才能访问后端服务。它可以与身份提供者(如OAuth、OpenID Connect)集成,进行用户认证和授权操作。

缓存:

API网关可以缓存后端服务的响应,减少对后端服务的请求次数,提高系统性能和响应速度。

监控与日志:

API网关可以收集和记录请求的指标和日志,提供实时监控和分析,帮助开发人员和运维人员进行故障排查和性能优化。

数据转换与协议转换:

API网关可以在客户端和后端服务之间进行数据格式转换和协议转换,如将请求从HTTP转换为WebSocket,或将请求的参数进行格式转换,以满足后端服务的需求。

API版本管理:

API网关可以管理不同版本的API,允许同时存在多个API版本,并通过路由规则将请求正确地路由到相应的API版本上。

2:Gateway核心概念

在这里插入图片描述

所以,在Spring Cloud Gateway中有三个核心的概念:

路由 - Route

路由是Spring Cloud Gateway的基本构建块,它定义了请求的匹配规则和转发目标。

通过配置路由,可以将请求映射到后端的服务实例或URL上。

路由规则可以根据请求的路径、方法、请求头等条件进行匹配,并指定转发的目标URI

断言 - Predicate

断言用于匹配请求的条件,如果请求满足断言的条件,则会应用所配置的过滤器。

Spring Cloud Gateway提供了多种内置的断言,同时也支持自定义断言

过滤器 - Filter

过滤器用于对请求进行处理和转换,可以修改请求、响应以及执行其他自定义逻辑。

Spring Cloud Gateway提供了多个内置的过滤器,如请求转发、请求重试、请求限流等。

同时也支持自定义过滤器,可以根据需求编写自己的过滤器逻辑

spring:
  cloud:
    gateway:
      routes:
        - id: route_auth # 认证微服务路由规则
          uri: lb://passjava-auth # 负载均衡,将请求转发到注册中心注册的 passjava-auth 服务
          predicates: # 断言
            - Path=/api/auth/** # 如果前端请求路径包含 api/auth,则应用这条路由规则
          filters: #过滤器
            - RewritePath=/api/(?<segment>.*),/$\{segment} # 将跳转路径中包含的api替换成空

        - id: route_member # 会员微服务路由规则
          uri: lb://passjava-member # 负载均衡,将请求转发到注册中心注册的 passjava-member 服务
          predicates: # 断言
            - Path=/api/member/** # 如果前端请求路径包含 api/member,则应用这条路由规则
          filters: #过滤器
            - RewritePath=/api/(?<segment>.*),/$\{segment} # 将跳转路径中包含的 api 替换成空

        - id: route_thirdparty # 题目微服务路由规则
          uri: lb://passjava-thirdparty # 负载均衡,将请求转发到注册中心注册的passjava-thirdparty服务
          predicates: # 断言
            - Path=/api/thirdparty/** # 如果前端请求路径包含 api/thirdparty,则应用这条路由规则
          filters: #过滤器
            - RewritePath=/api/(?<segment>.*),/$\{segment} # 将跳转路径中包含的api替换成空

        - id: route_question # 题目微服务路由规则
          uri: lb://passjava-question # 负载均衡,将请求转发到注册中心注册的assjava-question服务
          predicates: # 断言
            - Path=/api/question/** # 如果前端请求路径包含 api/question,则应用这条路由规则
          filters: #过滤器
            - RewritePath=/api/(?<segment>.*),/$\{segment} # 将跳转路径中包含的 api 替换成空

        - id: route_search # 题目微服务路由规则
          uri: lb://passjava-search # 负载均衡,将请求转发到注册中心注册的 passjava-search 服务
          predicates: # 断言
            - Path=/api/search/** # 如果前端请求路径包含 api/question,则应用这条路由规则
          filters: #过滤器
            - RewritePath=/api/(?<segment>.*),/$\{segment} # 将跳转路径中包含的api替换成空

        - id: route_portal # renren-fast微服务路由规则
          uri: lb://renren-fast # 负载均衡,renren-fast服务
          predicates: # 断言
            - Path=/api/** # 如果前端请求路径包含 api,则应用这条路由规则
          filters: #过滤器
            - RewritePath=/api/(?<segment>.*),/renren-fast/$\{segment} # 将跳转路径中包含的api替换成renren-fast

3:Gateway 全局过滤器常用

Spring Cloud Gateway 的全局过滤器(Global Filter)会对所有路由请求生效,非常适合实现跨切面功能如认证、日志、限流等。

3.1:基础实现-token校验

基础的全局过滤器的实现 -> 实现 GlobalFilter 接口

@Component
public class AuthGlobalFilter implements GlobalFilter {
    
    @Override
    public Mono<Void> filter(ServerWebExchange exchange, GatewayFilterChain chain) {
        // 从请求头中获取token
        String token = exchange.getRequest().getHeaders().getFirst("Authorization");
        
        // 如果没有token,表示还没有认证,同时标记已经处理完成,不再向下传递
        if (StringUtils.isEmpty(token)) {
            exchange.getResponse().setStatusCode(HttpStatus.UNAUTHORIZED);
            return exchange.getResponse().setComplete();
        }
        
        // 验证token逻辑,如果没有通过校验,表示是无效token, 同时标记已经处理完成,不再向下传递
        if (!validateToken(token)) {
            exchange.getResponse().setStatusCode(HttpStatus.FORBIDDEN);
            return exchange.getResponse().setComplete();
        }
        
        // 将用户信息放入请求头
        exchange.getRequest().mutate()
            .header("X-User-Id", extractUserId(token))
            .build();
        // 接着向下传递
        return chain.filter(exchange);
    }
    
    
    private boolean validateToken(String token) {
        // 实现token验证逻辑
        return true;
    }
    
    private String extractUserId(String token) {
        // 从token中提取用户ID
        return "user123";
    }
}
3.2:请求日志过滤器
@Component
public class LoggingGlobalFilter implements GlobalFilter {
    
    private static final Logger logger = LoggerFactory.getLogger(LoggingGlobalFilter.class);

    @Override
    public Mono<Void> filter(ServerWebExchange exchange, GatewayFilterChain chain) {
        // 获取开始时间
        long startTime = System.currentTimeMillis();
        // 获取请求的路径
        String path = exchange.getRequest().getPath().toString();

        
        return chain.filter(exchange).then(Mono.fromRunnable(() -> {
            long duration = System.currentTimeMillis() - startTime;
            int status = exchange.getResponse().getStatusCode() != null ? 
                exchange.getResponse().getStatusCode().value() : 0;
                
            logger.info("Request: {} | Status: {} | Duration: {}ms", 
                path, status, duration);
        }));
    }
}
3.3:结合redis实现限流过滤
@Component
@RequiredArgsConstructor
public class RateLimitGlobalFilter implements GlobalFilter {
    
    private final RedisTemplate<String, Object> redisTemplate;
    private static final String RATE_LIMIT_KEY_PREFIX = "gateway_rate_limit:";

    @Override
    public Mono<Void> filter(ServerWebExchange exchange, GatewayFilterChain chain) {
        String ip = exchange.getRequest().getRemoteAddress().getAddress().getHostAddress();
        String key = RATE_LIMIT_KEY_PREFIX + ip;
        
        // 使用Redis实现计数器限流
        Long count = redisTemplate.opsForValue().increment(key, 1);
        if (count != null && count == 1) {
            redisTemplate.expire(key, 1, TimeUnit.MINUTES);
        }
        
        if (count != null && count > 100) { // 每分钟100次
            exchange.getResponse().setStatusCode(HttpStatus.TOO_MANY_REQUESTS);
            return exchange.getResponse().setComplete();
        }
        
        return chain.filter(exchange);
    }
}
3.4:通过配置类注册全局过滤器
@Configuration
public class GatewayConfig {

    @Bean
    @Order(-1)
    public GlobalFilter customFilter() {
        return (exchange, chain) -> {
            // 过滤逻辑
            return chain.filter(exchange);
        };
    }
    
    @Bean
    @Order(0)
    public GlobalFilter anotherFilter() {
        return (exchange, chain) -> {
            // 另一个过滤逻辑
            return chain.filter(exchange);
        };
    }
}

Spring Cloud Gateway 过滤器的执行顺序由 getOrder() 方法或 @Order 注解决定,数值越小优先级越高。内置过滤器的顺序如下参考:

过滤器Order
NettyWriteResponseFilter-1
GatewayMetricsFilter0
RouteToRequestUrlFilter10000
LoadBalancerClientFilter10100
ForwardRoutingFilter2147483647

建议自定义全局过滤器的顺序在 -1 到 0 之间(前置处理)或 1 到 10000 之间(后置处理)。

3.5:修改请求/响应内容
@Component
public class ModifyResponseGlobalFilter implements GlobalFilter {

    @Override
    public Mono<Void> filter(ServerWebExchange exchange, GatewayFilterChain chain) {
        ServerHttpRequest request = exchange.getRequest();
        
        // 修改请求示例
        if (request.getURI().getPath().contains("/api")) {
            // 添加一个header
            ServerHttpRequest modifiedRequest = request.mutate()
                .header("X-Gateway-Request", "true")
                .build();
            exchange = exchange.mutate().request(modifiedRequest).build();
        }
        
        // 修改响应示例
        ServerHttpResponseDecorator decoratedResponse = new ServerHttpResponseDecorator(exchange.getResponse()) {
            @Override
            public Mono<Void> writeWith(Publisher<? extends DataBuffer> body) {
                // 如果Flux格式的响应
                if (body instanceof Flux) {
                    Flux<? extends DataBuffer> fluxBody = (Flux<? extends DataBuffer>) body;
                    return super.writeWith(fluxBody.map(buffer -> {
                        // 修改响应内容
                        byte[] content = new byte[buffer.readableByteCount()];
                        buffer.read(content);
                        String responseContent = new String(content, StandardCharsets.UTF_8);
                        responseContent = "Modified: " + responseContent;
                        return bufferFactory().wrap(responseContent.getBytes());
                    }));
                }
                return super.writeWith(body);
            }
        };
        
        return chain.filter(exchange.mutate().response(decoratedResponse).build());
    }
}

4:结合Sentinel

可以结合Sentinel完成网关限流,熔断等

1️⃣ 环境准备 - 添加依赖

<!-- Spring Cloud Gateway -->
<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-starter-gateway</artifactId>
</dependency>

<!-- Sentinel Starter -->
<dependency>
    <groupId>com.alibaba.cloud</groupId>
    <artifactId>spring-cloud-starter-alibaba-sentinel</artifactId>
    <version>2022.0.0.0</version>
</dependency>

<!-- Sentinel Gateway Adapter -->
<dependency>
    <groupId>com.alibaba.cloud</groupId>
    <artifactId>spring-cloud-alibaba-sentinel-gateway</artifactId>
    <version>2022.0.0.0</version>
</dependency>

<!-- Sentinel Datasource Nacos (可选) -->
<dependency>
    <groupId>com.alibaba.csp</groupId>
    <artifactId>sentinel-datasource-nacos</artifactId>
    <version>1.8.6</version>
</dependency>

2️⃣ 项目配置

server:
  port: 8080

spring:
  application:
    name: api-gateway
  cloud:
    gateway:
      routes:
        - id: user-service
          uri: lb://user-service # router是在注册中心注册的名称为user-service的服务,使用lb负载均衡
          predicates:
            - Path=/api/users/**  # 如果解析到客户端请求是/api/users/**, 将转发到user-service服务
          filters:
            - StripPrefix=1
    sentinel:
      enabled: true
      eager: true  # 立即初始化
      transport:
        dashboard: localhost:8080  # Sentinel控制台地址
      datasource:
        # 限流规则数据源(可选)
        flow:
          nacos:
            server-addr: localhost:8848
            dataId: ${spring.application.name}-flow-rules
            groupId: SENTINEL_GROUP
            rule-type: flow
        # 熔断规则数据源(可选)
        degrade:
          nacos:
            server-addr: localhost:8848
            dataId: ${spring.application.name}-degrade-rules
            groupId: SENTINEL_GROUP
            rule-type: degrade

3️⃣ 限流相关设置

@Configuration
public class SentinelConfig {

    @PostConstruct
    public void init() {
        // 初始化网关限流规则
        initGatewayRules();
        
        // 初始化自定义异常处理
        initBlockHandlers();
    }

    private void initGatewayRules() {
        Set<GatewayFlowRule> rules = new HashSet<>();
        
        // 针对特定路由的限流
        rules.add(new GatewayFlowRule("user-service")
                .setCount(10)  // 阈值
                .setIntervalSec(1)  // 统计时间窗口(秒)
                .setBurst(5)  // 突发流量额外允许的请求数
                .setGrade(RuleConstant.FLOW_GRADE_QPS));  // QPS模式
        
        // API分组限流
        rules.add(new GatewayFlowRule("user_api_group")
                .setCount(20)
                .setIntervalSec(1)
                .setControlBehavior(RuleConstant.CONTROL_BEHAVIOR_RATE_LIMITER) // 匀速排队
                .setMaxQueueingTimeoutMs(600)  // 排队超时时间(ms)
                .setGrade(RuleConstant.FLOW_GRADE_QPS));
        
        GatewayRuleManager.loadRules(rules);
    }

    // 自定义异常处理
    private void initBlockHandlers() {
        // 自定义限流异常处理
        GatewayCallbackManager.setBlockHandler(new BlockRequestHandler() {
            @Override
            public Mono<ServerResponse> handleRequest(ServerWebExchange exchange, Throwable t) {
                Map<String, Object> result = new HashMap<>();
                result.put("code", 429);
                result.put("message", "请求过于频繁,请稍后再试");
                return ServerResponse.status(HttpStatus.TOO_MANY_REQUESTS)
                        .contentType(MediaType.APPLICATION_JSON)
                        .body(BodyInserters.fromValue(result));
            }
        });
    }
}

4️⃣ 配置熔断规则

@Configuration
public class SentinelDegradeConfig {

    @PostConstruct
    public void init() {
        List<DegradeRule> rules = new ArrayList<>();
        
        // 用户服务熔断规则
        DegradeRule userRule = new DegradeRule("user-service")
                .setGrade(RuleConstant.DEGRADE_GRADE_EXCEPTION_RATIO)  // 异常比例模式
                .setCount(0.5)  // 异常比例阈值(50%)
                .setTimeWindow(10)  // 熔断时长(秒)
                .setMinRequestAmount(5)  // 最小请求数
                .setStatIntervalMs(10000);  // 统计时长(ms)
        
        // 添加到rules中
        rules.add(userRule);
        // 然后放到管理器中将这些规则
        DegradeRuleManager.loadRules(rules);
    }
}

5️⃣ 实现熔断降级的逻辑

@Component
public class FallbackHandler {

    public Mono<ServerResponse> userServiceFallback(ServerWebExchange exchange, Throwable throwable) {
        Map<String, Object> result = new HashMap<>();
        result.put("code", 503);
        result.put("message", "用户服务暂不可用,请稍后重试");
        
        return ServerResponse.status(HttpStatus.SERVICE_UNAVAILABLE)
                .contentType(MediaType.APPLICATION_JSON)
                .body(BodyInserters.fromValue(result));
    }
}
# yaml中配置路由熔断
spring:
  cloud:
    gateway:
      routes:
        - id: user-service
          uri: lb://user-service
          predicates:
            - Path=/api/users/**
          filters:
            - StripPrefix=1
            - name: CircuitBreaker
              args:
                name: user-service
                fallbackUri: forward:/fallback/user
            - name: RequestRateLimiter
              args:
                redis-rate-limiter.replenishRate: 10  # 每秒允许的请求数
                redis-rate-limiter.burstCapacity: 20  # 最大突发流量
                key-resolver: "#{@pathKeyResolver}"  # 限流键解析器
// 注册fallback端点
@RestController
public class FallbackController {

    @Autowired
    private FallbackHandler fallbackHandler;

    @RequestMapping("/fallback/user")
    public Mono<ServerResponse> userFallback(ServerWebExchange exchange) {
        return fallbackHandler.userServiceFallback(exchange, null);
    }
}
// 限流键解析器
@Bean
public KeyResolver pathKeyResolver() {
    return exchange -> Mono.just(
        exchange.getRequest().getPath().toString()
    );
}

十:分布式事务相关

1:Seata支持哪些模式

XA模式:

XA模式是一种基于两阶段提交(Two-Phase Commit)协议的分布式事务模式。

在XA模式中,Seata通过与数据库的XA事务协议进行交互,实现对分布式事务的管理和协调。

XA模式需要数据库本身支持XA事务,并且需要在应用程序中配置相应的XA数据源。

AT(Atomikos)模式:

AT模式是Seata默认支持的模式,也是最常用的模式之一。

在AT模式下,Seata通过在业务代码中嵌入事务上下文,实现对分布式事务的管理。

Seata会拦截并解析业务代码中的SQL语句,通过对数据库连接进行拦截和代理,实现事务的管理和协调

在XA基础上进行了改进,引入了全局锁和写隔离快照

TCC(Try-Confirm-Cancel)模式:

TCC模式是一种基于补偿机制的分布式事务模式。

在TCC模式中,业务逻辑需要实现Try、Confirm和Cancel三个阶段的操作。

Seata通过调用业务代码中的Try、Confirm和Cancel方法,并在每个阶段记录相关的操作日志,来实现分布式事务的一致性。

SAGA模式:

SAGA模式是一种基于事件驱动的分布式事务模式。

在SAGA模式中,每个服务都可以发布和订阅事件,通过事件的传递和处理来实现分布式事务的一致性。

Seata提供了与SAGA模式兼容的Saga框架,用于管理和协调分布式事务的各个阶段

2:Seata的实现原理

Seata的实现原理主要包括三个核心组件:

事务协调器(Transaction Coordinator)

事务协调器负责协调和管理分布式事务的整个过程。它接收事务的开始和结束请求,并根据事务的状态进行协调和处理。事务协调器还负责记录和管理事务的全局事务 ID(Global Transaction ID)和分支事务 ID(Branch Transaction ID)。

事务管理器(Transaction Manager)

事务管理器负责全局事务的管理和控制。它协调各个分支事务的提交或回滚,并保证分布式事务的一致性和隔离性。事务管理器还负责与事务协调器进行通信,并将事务的状态变更进行持久化。

资源管理器(Resource Manager)

资源管理器负责管理和控制各个参与者(Participant)的事务操作。它与事务管理器进行通信,并根据事务管理器的指令执行相应的事务操作,包括提交和回滚。

在这里插入图片描述

Seata的实现原理基于两阶段提交(Two-Phase Commit)协议,具体的机制如下:

一阶段:

在事务提交的过程中,首先进行预提交阶段。

事务协调器向各个资源管理器发送预提交请求,资源管理器执行相应的事务操作并返回执行结果。

在此阶段,业务数据和回滚日志记录在同一个本地事务中提交,并释放本地锁和连接资源。

二阶段:

在预提交阶段成功后,进入真正的提交阶段。此阶段主要包括提交异步化和回滚反向补偿两个步骤:

  • 提交异步化:事务协调器发出真正的提交请求,各个资源管理器执行最终的提交操作。这个阶段的操作是非常快速的,以确保事务的提交效率。
  • 回滚反向补偿:如果在预提交阶段中有任何一个资源管理器返回失败结果,事务协调器发出回滚请求,各个资源管理器执行回滚操作,利用一阶段的回滚日志进行反向补偿。

3:Seata的事务执行流程

Seata事务的执行流程可以简要概括为以下几个步骤:

  1. 事务发起方(Transaction Starter)发起全局事务:事务发起方是指发起分布式事务的应用程序或服务。它向Seata的事务协调器发送全局事务的开始请求,生成全局事务ID(Global Transaction ID)。
  2. 事务协调器创建全局事务记录:事务协调器接收到全局事务的开始请求后,会为该事务创建相应的全局事务记录,并生成分支事务ID(Branch Transaction ID)。
  3. 分支事务注册:事务发起方将全局事务ID和分支事务ID发送给各个参与者(Participant),即资源管理器。参与者将分支事务ID注册到本地事务管理器,并将事务的执行结果反馈给事务协调器。
  4. 执行业务逻辑:在分布式事务的上下文中,各个参与者执行各自的本地事务,即执行业务逻辑和数据库操作。
  5. 预提交阶段:事务发起方向事务协调器发送预提交请求,事务协调器将预提交请求发送给各个参与者。
  6. 执行本地事务确认:参与者接收到预提交请求后,执行本地事务的确认操作,并将本地事务的执行结果反馈给事务协调器。
  7. 全局事务提交或回滚:事务协调器根据参与者反馈的结果进行判断,如果所有参与者的本地事务都执行成功,事务协调器发送真正的提交请求给参与者,参与者执行最终的提交操作;如果有任何一个参与者的本地事务执行失败,事务协调器发送回滚请求给参与者,参与者执行回滚操作。
  8. 完成全局事务:事务协调器接收到参与者的提交或回滚结果后,根据结果更新全局事务的状态,并通知事务发起方全局事务的最终结果。

4:Seata是如何回滚的

Seata的事务回滚是通过回滚日志Undo.log实现的。

每个参与者在执行本地事务期间生成回滚日志,记录了对数据的修改操作。

当需要回滚事务时,事务协调器向参与者发送回滚请求,参与者根据回滚日志中的信息执行撤销操作,将数据恢复到事务开始前的状态。

回滚日志的管理和存储是Seata的核心机制,可以选择将日志存储在不同的介质中。

通过回滚日志的持久化和恢复,Seata确保了事务的一致性和恢复性。

十一:服务监控相关

1:如何服务监控和告警

一般企业级都是使用Prometheus和Grafana来实现整个微服务集群的监控和告警:

  • Prometheus:Prometheus 是一个开源的监控系统,具有灵活的数据模型和强大的查询语言,能够收集和存储时间序列数据。它可以通过HTTP协议定期拉取微服务的指标数据,并提供可扩展的存储和查询功能。
  • Grafana:Grafana 是一个开源的可视化仪表板工具,可以与 Prometheus 结合使用,创建实时和历史数据的仪表板。Grafana 提供了丰富的图表和可视化选项,可以帮助用户更好地理解和分析微服务的性能和状态。

2:如何服务日志收集

一般企业用的是ELK

  • Elasticsearch:Elasticsearch是一个分布式搜索和分析引擎,用于存储和索引大量的日志数据。它提供了快速的搜索和聚合功能,可以高效地处理大规模的日志数据。
  • Logstash:Logstash是一个用于收集、过滤和转发日志数据的工具。它可以从各种来源(如文件、网络、消息队列等)收集日志数据,并对数据进行处理和转换,然后将其发送到Elasticsearch进行存储和索引。
  • Kibana:Kibana是一个用于日志数据可视化和分析的工具。它提供了丰富的图表、仪表盘和搜索功能,可以帮助用户实时监控和分析日志数据,发现潜在的问题和趋势。

简单说,这三者里Elasticsearch提供数据存储和检索能力,Logstash负责将日志收集到ES,Kibana负责日志数据的可视化分析。使用ELK进行微服务日志收集的一般流程如下:

在这里插入图片描述

  1. 在每个微服务中配置日志输出:将微服务的日志输出到标准输出(stdout)或日志文件。
  2. 使用Logstash收集日志:配置Logstash收集器,通过配置输入插件(如文件输入、网络输入等)监听微服务的日志输出,并进行过滤和处理。
  3. 将日志数据发送到Elasticsearch:配置Logstash的输出插件,将经过处理的日志数据发送到Elasticsearch进行存储和索引。
  4. 使用Kibana进行可视化和分析:通过Kibana连接到Elasticsearch,创建仪表盘、图表和搜索查询,实时监控和分析微服务的日志数据。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值