[Spring Cloud Stream]1 流式微服务核心概念

本文介绍流式微服务及其在Spring Cloud Stream中的实现。流式微服务专为实时处理数据流而设计,Spring Cloud Stream通过统一的API简化了消息驱动微服务的构建过程。文中详细解释了Spring Cloud Stream的核心概念,包括Binder抽象、持续发布/订阅支持、消费者组和消息分区。

概述

流式微服务主要用于实时处理源源不断的数据流,相对于应用微服务,它对开发人员提出了更多的技术要求。数据本身不像是纯业务应用,相对来说它是抽象的、复杂的,且在传输,存储,分析等方面都比应用微服务提出了更高的性能要求。

在设计上,Spring Cloud Stream 是一个用于构建消息驱动的微服务框架,它基于Spring Boot来创建对 DevOps 提供良好支持的微服务应用,通过 Spring Integration 集成工具为消息连接与传播提供一个统一的、灵活的操作平台。该操作平台是可配置的,比如配置 生产者/消费者 、消费者所属消费者组甚至是消息分区(需要消息中间件提供商本身的支持)。

Spring Cloud Stream的使用非常简单,在应用的main启动类上加上 @EnableBinding 注解就可以连接消息中间件,创建一个流式微服务。通过在方法上添加 @StreamListener 注解就可以异步处理所接收到的消息。

快速开始

下面通过一个简单的 sink 应用来演示Stream应用的消息接收者用法。

@SpringBootApplication
@EnableBinding(Sink.class)
public class VoteRecordingSinkApplication {

  public static void main(String[] args) {
    SpringApplication.run(VoteRecordingSinkApplication.class, args);
  }

  @StreamListener(Sink.INPUT)
  public void processVote(Vote vote) {
      votingService.recordVote(vote);
  }
}

@EnableBinding注解可以接收一个或多个输入/输出通道接口类作为参数(本示例中注解的参数只有 Sink 一个接口),Spring Cloud Task默认提供了 Source, Sink, 和 Processor接口来定义消息源,接收者和处理通道。通道支持之定义扩展。

下面是 Sink 消息接收者通道的接口定义代码。

public interface Sink {
  String INPUT = "input";

  @Input(Sink.INPUT)
  SubscribableChannel input();
}

@Input注解定义了输入通道,通过这个注解可以接收进入应用的消息。@Output注解定义了消息输出通道法,通过这个注解可以定义应用发布消息的通道。这两个注解的参数为输入/输出消息通道的名称,如果没有给注解指定参数,默认使用注解所标注的方法的方法名作为通道名称。

Spring Cloud Stream会通过动态代理技术自动为消息通道接口创建实现类。下面代码是测试消息通道是否创建成功的方法。

@RunWith(SpringJUnit4ClassRunner.class)
@SpringApplicationConfiguration(classes = VoteRecordingSinkApplication.class)
@WebAppConfiguration
@DirtiesContext
public class StreamApplicationTests {

  @Autowired
  private Sink sink;

  @Test
  public void contextLoads() {
    assertNotNull(this.sink.input());
  }
}

核心概念

Spring Cloud Stream为简化消息驱动微服务设计了许多抽象和基础组件,其核心简要概述如下所示。

  • Spring Cloud 流式微服务模型
  • Binder 抽象消息中间件
  • 持续发布/订阅支持
  • 支持消费者组
  • 支持消息分区
  • 可拔插的 Binder API

1. 流式微服务模型

一个 Spring Cloud Stream 应用以消息中间件为核心,应用通过Spring Cloud Stream注入的输入/输出通道 channels 与外部进行通信。channels 通过特定的Binder实现与外部消息中间件进行通信。如图1Spring Cloud Stream 应用架构示意图所示。

Spring Cloud Stream 应用架构示意图

2. 对消息中间件的抽象

Spring Cloud Stream提供了对Kafka和Rabbit MQ的抽象Binder来代表消息中间件,其自身也提供了测试用的中间件 TestSupportBinder,可以直接向通道发送可靠的消息并进行断言测试,据此可以使用扩展API编写自己的Binder。

Spring Cloud Stream使用通用的Spring Boot配置方式,抽象的Binder为灵活配置如何连接消息中间件及发送消息提供了良好的支持。例如,消息发布者可以在运行时动态的选择通道要连接的目标(kafka的topic或 RabbitMQ的exchanges),这些外部属性配置可以通过Spring Boot给出(通过应用参数,环境变量,application.yml或者application.properties配置文件)。

Spring Cloud Stream会自动发现并使用 classpath 中可用的 绑定器(binder),你可以通过在构建项目时依赖不同的中间件来使同一份代码支持多种消息中间件。在复杂的应用场景下,你也可以在事先指定好每个通道绑定哪个Binder,直接打包多个binders。

3. 持续发布/订阅支持

流式微服务应用之间通过发布/订阅模型通信,通过共享的话题topic来传播数据。图2展示了流式微服务集合的部署架构图,直观的说明了多个流式微服务之间的关系。

Spring Cloud Stream 发布订阅模型示意图

经过HTTP接口的数据被转发到raw-sensor-data目标主题。计算平均时间窗口和持久化数据到HDFS两个相互独立的微服务共同消费这个主题。

这个基于发布订阅的通信模型可以减少生产者和消费者的复杂性,且能够在不破坏现有数据流的情况下扩充拓扑逻辑。比如,你可以在计算平均时间窗口服务后增加一个用于监控和展示最高值的应用,甚至还可以在同一个数据流中添加一个计算平均错误时间的应用。微服务间通过共享主题的方式进行通信比点对点通信的方式大大降低了服务之间的耦合。

发布订阅模型并非新概念,Spring Cloud Stream只是通过一些额外的步骤,使发布订阅模型成为构建微服务的一种极佳选择。通过对本地消息中间提供支持,Spring Cloud Stream可以简洁的构建跨平台的发布订阅模型。

4. 消费者组

发布订阅模型让应用间通过共享话题topic通信连接变得相当容易,不过在为高可用部署多个应用实例时,还需要防止应用对该话题topic中的消息重复消费。多个应用实例之间应该是一个竞争消费的关系,一条消息应该只能被一个消费者消费。

Spring Cloud Stream通过消费者组的概念来模拟上述需求。每个消费者输入通道绑定器可以使用spring.cloud.stream.bindings.<channelName>.group属性来指定其所属消费者组。

4.1 持久的消费者组

与Spring Cloud Stream的可独立运行服务模型一样,消费者组的订阅也是持久的。这句话的意思是说绑定器默认自己自己所属的消费者组是持久存在的,只要该消费者组中的某一个消费者被创建,除非所有的消费者都被停止掉,否则该组将不停的接收消息。

通常情况下,在已知消息目的地的时候,我们都会指定消费者组,在升级到Spring Cloud Stream应用时,你必须要为美俄输入绑定器指定其所属消费者组,这样的话就可以避免在部署多个应用实例时重复消费消息。

分区支持

Spring Cloud Stream为多个生产者实例的应用提供消息分区的支持。在分区的情景下,物理上连接的媒体被视为多分区的结构,一个或多个生产者发送数据到多个消费者,并保证某个具有某些特征的数据仅被某一个消费者实例消费。

Spring Cloud Stream提供公用的抽象,以统一的方式实现分区处理。具体的分区策略可以由提供分区机制的消息中间件来实现。

Spring Cloud Stream 分区模型示意图

分区是状态处理中重要的概念。为确保相关数据能够被一个服务一起处理,无论在性能方面还是一致性方面,分区的概念都是非常重要的。

关于

示例源码

spring-cloud-stream-learning 的 stream-simple-listener 子项目

后记

Spring Cloud Stream提供的流式微服务是一个全新的概念,以消息驱动为服务通信方式,异步高性能的进行数据流实时处理。不过其并未采用什么新技术,而是以优美的设计,来抽象各个消息中间件,屏蔽其内部实现原理,使服务间的通信变得更为简单友好。

本文内容主要是对 Spring Cloud Stream Elmhurst 官方文档的翻译,不过作者水平有限,有不尽然的地方敬请指出。本项目和文档中所用的内容仅供学习和研究之用,转载或引用时请指明出处。如果你对文档有疑问或问题,请在项目中给我留言或发email到weiwei02@vip.qq.com 我的github:https://github.com/weiwei02/ 我相信技术能够改变世界 。

链接

**Spring Cloud Stream Applications Einstein SR5**(Service Release 5)是 **Spring Cloud Stream** 生态中预构建的、基于通用消息中间件(如 Kafka、RabbitMQ)的可重用微服务应用集合,属于 **Einstein 版本系列**(对应 Spring Boot 2.1.x 和 Spring Cloud Stream Horsham)。它提供了一组即插即用的 **Source(源)、Processor(处理器)、Sink(接收器)** 应用,用于快速搭建事件驱动的式数据管道。 --- ### 核心概念 这些应用程序是独立运行的 Spring Boot 微服务,专为与消息中间件集成而设计,典型用途包括: - 将外部系统数据接入消息队列(Source) - 在消息中进行转换或过滤(Processor) - 将消息写入数据库、文件、HTTP 等目标系统(Sink) > ✅ 示例场景: > `http-source` → `transform-processor` → `kafka-sink` > 或 > `rabbitmq-source` → `filter-processor` → `mongodb-sink` --- ### 版本信息(Einstein SR5) | 组件 | 版本 | |------|------| | Spring Boot | 2.1.x 系列(如 2.1.9.RELEASE) | | Spring Cloud Stream | Horsham.SR5 | | 消息中间件支持 | Kafka 2.0+, RabbitMQ 3.7+ | | 发布时间 | 2019 年底至 2020 年初 | 该版本已归档,建议升级到更新的 **2021.0+(现称 "Bitmonster" 及以后)**。 --- ### 主要模块类型 #### 1. **Sources(数据源)** 从外部系统读取数据并发布到消息中间件。 | Source | 功能 | |--------|------| | `http-source` | 接收 HTTP POST 请求,转发为消息 | | `jdbc-source` | 定时查询数据库表,输出新增/变更记录 | | `file-source` | 监控文件目录变化,发送文件内容 | | `time-source` | 定时生成时间戳消息(如每秒发一条) | | `mqtt-source` | 接入 MQTT 协议设备消息 | ```properties # 示例配置:HTTP Source server.port=8080 spring.cloud.stream.bindings.output.destination=user-events ``` #### 2. **Processors(处理器)** 对消息进行处理后再输出。 | Processor | 功能 | |----------|------| | `transform-processor` | 使用 SpEL 表达式修改消息体 | | `filter-processor` | 条件过滤消息(如 `payload.age > 18`) | | `groovy-processor` | 使用 Groovy 脚本自定义逻辑 | | `router-processor` | 根据条件路由到不同输出通道 | ```yaml # transform-processor 配置示例 spring: cloud: stream: function: definition: transform bindings: transform-in-0: destination: input-topic transform-out-0: destination: output-topic transformer: expression: payload.toUpperCase() ``` #### 3. **Sinks(接收端)** 将消息写入外部系统。 | Sink | 功能 | |------|------| | `log-sink` | 打印消息日志(调试用) | | `mongodb-sink` | 写入 MongoDB 集合 | | `kafka-sink` | 转发到另一个 Kafka 主题 | | `rabbitmq-sink` | 发送到 RabbitMQ 交换机 | | `redis-sink` | 存入 Redis 键值存储 | | `http-sink` | 将消息作为 POST 请求发送到远程服务 | | `jdbc-sink` | 插入或更新数据库记录 | ```yaml # mongodb-sink 示例配置 spring.data.mongodb.uri=mongodb://localhost:27017/events spring.cloud.stream.bindings.input.destination=user-signups spring.cloud.stream.mongodb.time-to-live-ttl=3600 ``` --- ### 快速使用方式 #### 方式一:直接运行 JAR 包(官方发布) 从 [Spring Cloud Stream App Starters](https://github.com/spring-cloud/stream-applications) 获取预编译 JAR: ```bash java -jar http-source-rabbit-2.1.1.RELEASE.jar \ --server.port=9000 \ --spring.cloud.stream.bindings.output.destination=http-input \ --spring.rabbitmq.host=localhost ``` #### 方式二:Docker 启动 ```bash docker run -p 9000:8080 springcloudstream/http-source-kafka:2.1.1.RELEASE \ --spring.cloud.stream.bindings.output.destination=http-input ``` #### 方式三:自定义组合(推荐) 在自己的项目中引入 starter 模块并扩展功能: ```xml <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-stream-binder-kafka</artifactId> </dependency> <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-starter-stream-kafka</artifactId> </dependency> ``` 然后定义函数式编程模型: ```java @Bean public Function<String, String> uppercase() { return value -> value.toUpperCase(); } ``` --- ### 注意事项 - 所有应用基于 **函数式编程模型**(`java.util.function.Function`, `Supplier`, `Consumer`),取代旧式的注解驱动。 - 支持通过 `--spring.cloud.stream.bindings.*` 参数动态绑定输入输出目的地。 - 不支持事务性消费或精确一次语义(取决于底层中间件配置)。 - 已停止维护,建议迁移到 **[Spring Cloud Stream Applications 2021.0+](https://github.com/spring-cloud/spring-cloud-stream-applications)**(基于 Spring Boot 2.6+ / 3.x)。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值