Sleuth+ZipKin 整合 RabbitMQ 消息传输 + ElasticSearch 追踪数据持久化

简介

Sleuth 的作用是在系统中自动埋点并把数据发送给 ZipKin,ZipKin 的作用是存储这些数据并展现
ZipKin 默认 http 消息传输,本地存储追踪数据,服务不可用或重启之后,数据就会丢失;本文介绍如何实现 ZipKin 客户端和服务端之间使用 RabbitMQ 异步消息传输、使用 ElasticSearch 实现追踪数据持久化

一、ZipKin 下载地址

https://repo1.maven.org/maven2/io/zipkin/zipkin-server/

二、启动 Zipkin

zipkin-server 连接到 RabbitMQ、ElasticSearch,执行启动命令:

java -jar zipkin-server-2.24.4-exec.jar --RABBIT_ADDRESSES=127.0.0.1:5672 --RABBIT_USER=guest --RABBIT_PASSWORD=guest --STORAGE_TYPE=elasticsearch --ES_HOSTS=127.0.0.1:9200 -Dfile.encoding=utf-8

访问控制台链接

http://127.0.0.1:9411/zipkin/

三、业务代码整合 Sleuth + Zipkin

  1. POM 文件添加
<!--sleuth-->
<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>
<!--zipkin-->
<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-sleuth-zipkin</artifactId>
</dependency>
<!-- 使用 Rabbit 连接方式启动才需要下面依赖 -->
<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-amqp</artifactId>
</dependency>
<!-- 使用es存储链路追踪 -->
<dependency>
    <groupId>io.zipkin.java</groupId>
    <artifactId>zipkin-autoconfigure-storage-elasticsearch-http</artifactId>
    <version>2.8.4</version>
</dependency>
  1. application.yml 文件添加
spring:
  sleuth:
    sampler:
      probability: 1.0
  zipkin:
    base-url: http://localhost:9411
    sender:
      type: rabbit
  rabbitmq:
    host: 127.0.0.1
    port: 5672
    password: guest
    username: guest
zipkin:
  storage:
    type: elasticsearch
    elasticsearch:
      hosts: http://127.0.0.1:9200
      username: elastic
      password: 123456
      cluster: elasticsearch
      index: zipkin
      index-shards: 1
      index-replicas: 1

logging:
  level:
    root: INFO
    org.springframework.web.servlet.DispatcherServlet: DEBUG
    org.springframework.cloud.sleuth: DEBUG

  1. 请求接口后,访问 http://127.0.0.1:9411/zipkin/ 查看请求链路
    在这里插入图片描述

四、问题

使用 ElasticSearch 实现追踪数据持久化后,发现依赖无法查看,可以参考这篇博文来解决:
【微服务链路追踪】windows下zipkin持久化数据到ES后没有生成依赖关系dependencies问题

在实现 SleuthZipkin 集成 RocketMQ 并持久化数据Elasticsearch 的过程中,主要涉及以下几个步骤: ### 1. 环境准备 首先确保以下组件已经安装并运行: - **RocketMQ**:作为消息中间件用于 Zipkin 客户端与服务端之间的异步通信。 - **Zipkin Server**:用于接收、处理和展示分布式追踪数据。 - **Elasticsearch**:用于持久化存储 Zipkin追踪数据。 - **Kibana**(可选):用于可视化查看 Elasticsearch 中的追踪数据。 ### 2. 启动 RocketMQ 启动 RocketMQ 的 NameServer 和 Broker。可以使用以下命令启动: ```bash # 启动 NameServer nohup mqnamesrv & # 启动 Broker nohup mqbroker -n localhost:9876 & ``` ### 3. 配置 Zipkin 使用 RocketMQ 传输 下载 Zipkin Server 的可执行文件,并通过配置使其支持 RocketMQ 消息传输。例如,在启动 Zipkin 时添加如下参数: ```bash java -jar zipkin-server.jar --zipkin.collector.rabbitmq.addresses=localhost:5672 --zipkin.collector.rabbitmq.queue=zipkin --zipkin.storage.type=elasticsearch --zipkin.storage.elasticsearch.hosts=http://localhost:9200 ``` 上述命令中: - `--zipkin.collector.rabbitmq.addresses` 指定 RabbitMQ 的地址。 - `--zipkin.collector.rabbitmq.queue` 指定 RabbitMQ 的队列名称。 - `--zipkin.storage.type` 设置为 `elasticsearch` 表示使用 Elasticsearch 存储数据。 - `--zipkin.storage.elasticsearch.hosts` 指定 Elasticsearch 的地址[^2]。 ### 4. 配置微服务集成 SleuthZipkinSpring Boot 微服务中引入 SleuthZipkin 的依赖,并启用 Sleuth 的自动埋点功能。例如,在 `pom.xml` 文件中添加以下依赖: ```xml <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-starter-sleuth</artifactId> </dependency> <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-starter-zipkin</artifactId> </dependency> ``` 在 `application.yml` 文件中进行相关配置: ```yaml spring: application: name: order-service sleuth: sampler: probability: 1.0 zipkin: base-url: http://localhost:9411 sender: type: rabbit ``` 其中: - `spring.sleuth.sampler.probability` 设置为 `1.0` 表示采集所有请求的追踪数据。 - `spring.zipkin.sender.type` 设置为 `rabbit` 表示使用 RabbitMQ 发送数据[^2]。 ### 5. 配置 Zipkin 数据持久化Elasticsearch 为了将 Zipkin追踪数据持久化Elasticsearch,需要在启动 Zipkin 时指定相关的存储类型和地址。例如: ```bash java -jar zipkin-server.jar --zipkin.storage.type=elasticsearch --zipkin.storage.elasticsearch.hosts=http://localhost:9200 ``` 这些参数的作用是: - `--zipkin.storage.type` 设置为 `elasticsearch` 表示使用 Elasticsearch 存储数据。 - `--zipkin.storage.elasticsearch.hosts` 指定 Elasticsearch 的地址[^1]。 ### 6. 验证数据持久化 重启 Zipkin Server 并访问微服务接口,生成一些追踪数据。随后检查 Elasticsearch 中是否存储了这些数据。可以通过 Kibana 可视化界面查看具体的追踪信息[^1]。 ### 7. 使用 Docker 部署 Elasticsearch 如果使用 Docker 部署 Elasticsearch,可以按照以下命令创建目录并配置跨域设置: ```bash mkdir -p /mydata/elasticsearch/config mkdir -p /mydata/elasticsearch/data echo "http.host: 0.0.0.0" >> /mydata/elasticsearch/config/elasticsearch.yml echo "http.cors.enabled: true" >> /mydata/elasticsearch/config/elasticsearch.yml echo 'http.cors.allow-origin: "*"' >> /mydata/elasticsearch/config/elasticsearch.yml docker run --name elasticsearch -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -e ES_JAVA_OPTS="-Xms64m -Xmx128m" -v /mydata/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -d elasticsearch:5.6.16 ``` 这些命令的作用是: - 创建 Elasticsearch 的配置目录。 - 配置跨域设置以便 Kibana 能够访问 Elasticsearch。 - 使用 Docker 启动 Elasticsearch 容器[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值