分布式日志处理--Sleuth/Zipkin

使用Sleuth实现微服务跟踪:

1:在需要监听的项目中(provider/consumer)添加依赖,整合Sleuth

<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-starter-sleuth</artifactId>
    <version>1.2.5.RELEASE</version>
</dependency>

2:修改application.yml文件,在其中设置日志级别为info

logging:
    level: info

3:运行项目,此时调用服务可在控制台看到对应的日志文件,包括一些ip,serverName等
在这里插入图片描述

Spring Cloud Sleuth整合Zipkin:

Zipkin提供了图形化界面。除了使用Zipkin,还可以配合ELK实现

1:创建新项目:dm-sleuth-server,并导入springCloud依赖

2:添加zipkin依赖:

<dependency>
    <groupId>io.zipkin.java</groupId>
    <artifactId>zipkin-server</artifactId>
</dependency>
<dependency>
    <groupId>io.zipkin.java</groupId>
    <artifactId>zipkin-autoconfigure-ui</artifactId>
</dependency>

3:启动类添加注解:@EnableZipkinServer

4:yml文件添加一个server:port :7700后运行项目,运行后即可通过7700访问zipkin页面

在这里插入图片描述

微服务整合Zipkin:

1:在需要监听的项目中(provider/consumer)添加依赖,整合Zipkin

<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-starter-sleuth</artifactId>
    <version>1.2.5.RELEASE</version>
</dependency>
<!--如果上面已经引入sleuth,这里就不需要-->
<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-starter-zipkin</artifactId>
</dependency>

2:分别修改所需项目中的application.yml,在其中指定Zipkin Server地址和采样率

spring:
  zipkin:
    base-url: http://localhost:7700
  sleuth:
    sampler:
       percentage: 1.0

(在开发、测试中配置文件中的spring.sleuth.sampler.percentage属性设置为1.0,代表100%采样,否则可能会忽略掉大量span,可能看不到想要查看的请求)

3:重启项目后访问服务,在Zipkin页面中可以看到这其中产生的数据

使用消息中间件收集数据:RabbitMQ(需要创建RabbitMQ容器,端口为15672,5672)

收集跟踪数据是使用HTTP请求的方式,带来的问题
耦合性,都需要连接到Zipkin Server
不稳定性,网络出现问题就无法保证收集到跟踪数据

可以使用消息中间件解决
先将需要收集的数据发送到消息中间件中,然后Zipkin Server再从消息中间件取出数据分析

1:在sleuth-server项目中添加依赖

<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-sleuth-zipkin-stream</artifactId>
</dependency>
<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-stream-binder-rabbit</artifactId>
    <version>1.2.1.RELEASE</version>
</dependency>
<dependency>
    <groupId>io.zipkin.java</groupId>
    <artifactId>zipkin-autoconfigure-ui</artifactId>
</dependency>
<!--如果上面添加过,这里可不用添加-->

2:启动类将@EnableZipkinServer改为@EnableZipkinStreamServer

3:在yml中配置RabbitMQ的服务地址和账号

spring:
  rabbitmq:
    host: 192.168.9.151
    port: 5672
    username: guest
    password: guest

4:所需项目配置以下依赖,删除之前配置的zipkin依赖

<dependency>
	<groupId>org.springframework.cloud</groupId>
	<artifactId>spring-cloud-starter-sleuth</artifactId>
	<version>1.2.5.RELEASE</version>
</dependency>
<!--如果之前配置过可不用配置-->
<dependency>
	<groupId>org.springframework.cloud</groupId>
	<artifactId>spring-cloud-sleuth-stream</artifactId>
</dependency>
<dependency>
	<groupId>org.springframework.cloud</groupId>
	<artifactId>spring-cloud-stream-binder-rabbit</artifactId>	<version>1.2.1.RELEASE</version>
</dependency>

5:所需项目中删除之前配置的zipkin配置,换为如下配置

spring
  rabbitmq:
    host: 192.168.9.151
    port: 5672
    username: guest
    password: guest

6:重启项目,此时日志则是通过RabbitMQ来访问的,在RabbitMQ页面中可看到队列显示

使用MySQL存储跟踪数据:

数据丢失
前文示例中Zipkin Server都是将数据保存在内存中,重启Zipkin Server后就不能查看到之前的数据了

数据持久化存储
MySQL
Elasticsearch

1:为sleuth-server添加数据库依赖

<dependency>
   <groupId>io.zipkin.java</groupId>
   <artifactId>zipkin-storage-mysql</artifactId>
   <version>1.16.2</version>
</dependency>
<dependency>
   <groupId>org.springframework.boot</groupId>
   <artifactId>spring-boot-starter-jdbc</artifactId>
</dependency>
<dependency>
   <groupId>mysql</groupId>
   <artifactId>mysql-connector-java</artifactId>
</dependency>

2:创建数据库

创建表
官方脚本
https://github.com/openzipkin/zipkin/blob/master/zipkin-storage/mysql-v1/src/main/resources/mysql.sql

3:在sleuth-server中添加关于数据库的配置

  datasource:
    url: jdbc:mysql://数据库地址:3306/表名?useUnicode=true&characterEncoding=gbk&zeroDateTimeBehavior=convertToNull&useSSL=true
    username: root
    password: root
    driver-class-name: com.mysql.jdbc.Driver
zipkin:
  storage:
  	type: mysql

4:重启项目,此时访问服务产生的数据会存入数据库中,重启时会调用数据库中的数据,防止数据流失

<think>好的,我现在需要帮助用户了解Zipkin分布式追踪中的使用方法、原理以及配置。用户之前的问题提到了Ribbon的负载均衡,现在转向了Zipkin,所以可能需要考虑两者的整合。首先,我需要回顾用户提供的引用内容,确保信息准确。引用1提到Zipkin是一个分布式追踪系统,项目地址在GitCode。引用2说明了Zipkin的核心功能是记录请求的生命周期,形成追踪记录,帮助观察服务间调用关系。引用3补充了Zipkin由Twitter开发,支持多语言和框架,是微服务中的监控组件。引用4指出不支持自定义服务器嵌入,需要按照指南使用。用户现在想了解Zipkin的使用方法、原理和配置。我需要先整理Zipkin的基本原理,包括追踪数据如何生成、收集、存储和展示。然后,使用步骤需要涵盖如何部署Zipkin服务器,如何在应用中集成客户端,配置采样率等。配置部分可能涉及不同环境的设置,比如Spring Boot的应用。接下来,我需要考虑用户可能的实际应用场景,比如在微服务架构中,如何与SpringCloud Sleuth整合,因为用户之前的问题涉及Ribbon,可能他们正在使用Spring Cloud。因此,在回答中加入与Spring Boot的集成示例会很有帮助。 另外,用户提供的引用4提到不支持自定义服务器嵌入,所以需要强调使用官方发布的包,避免用户尝试错误的方法。配置部分需要说明如何正确设置服务端和客户端,以及常见的配置参数,如采样率、传输方式(HTTP、Kafka等)。 还需要注意用户可能遇到的常见问题,比如数据收集不全、界面无法访问等,给出排查建议。性能优化方面,可能涉及存储后端的选型,比如使用Elasticsearch替代默认的内存存储。 最后,生成相关问题时要围绕Zipkin的使用、原理、配置以及与其它工具的整合,比如如何与SpringCloud Sleuth配合,如何选择存储后端,如何分析追踪数据等。确保问题覆盖用户可能深入探索的方向。</think>### Zipkin分布式追踪使用指南与实现原理 --- #### 一、核心原理 1. **追踪数据模型** Zipkin基于**Span**和**Trace**两个核心概念: - **Trace**:表示一次完整的请求链路,由多个Span组成,形成树状结构[^2] - **Span**:记录单个服务调用的元数据,包含: ```json { "traceId": "a3d...", // 全局唯一追踪ID "id": "c2b...", // 当前Span唯一ID "parentId": "a3d...",// 父Span ID "name": "query_user", "timestamp": 1620000000000, "duration": 150, // 耗时(ms) "annotations": [ {"value": "sr", "timestamp": 1620000000000}, // Server Receive {"value": "ss", "timestamp": 162000000000150} // Server Send ] } ``` 2. **架构组件** ```mermaid graph LR A[Instrumented App] -->|报告Span| B(Collector) B --> C(Storage) C --> D(API) D --> E(UI) ``` - **Collector**:接收和验证追踪数据[^3] - **Storage**:支持Cassandra、Elasticsearch、MySQL等存储后端 - **UI**:可视化展示调用链路,支持按服务名、耗时等条件过滤[^2] 3. **上下文传播** 通过以下方式传递Trace上下文: - **HTTP Headers**:`X-B3-TraceId`, `X-B3-SpanId`等 - **RPC框架集成**:如gRPC的metadata传递 - **代码注入**:通过Brave库自动注入上下文[^3] --- #### 二、使用指南 1. **快速部署** 使用Docker启动Zipkin服务端: ```bash docker run -d -p 9411:9411 openzipkin/zipkin ``` 2. **客户端集成(以Spring Boot为例)** **步骤1**:添加依赖 ```xml <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-starter-sleuth</artifactId> </dependency> <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-sleuth-zipkin</artifactId> </dependency> ``` **步骤2**:配置上报地址 ```yaml spring: sleuth: sampler: probability: 1.0 # 采样率(0.0-1.0) zipkin: base-url: http://localhost:9411/ sender.type: web # 支持kafka/rabbitmq ``` **步骤3**:自动追踪示例 ```java @RestController public class UserController { @Autowired private RestTemplate restTemplate; @GetMapping("/user/{id}") public User getUser(@PathVariable String id) { // Sleuth自动注入Trace上下文 return restTemplate.getForObject("http://account-service/account/" + id, User.class); } } ``` 3. **自定义追踪** 手动创建Span: ```java @Autowired private Tracer tracer; public void processOrder() { Span span = tracer.nextSpan().name("process_order").start(); try (SpanInScope ws = tracer.withSpanInScope(span)) { // 业务逻辑 } finally { span.finish(); } } ``` --- #### 三、配置优化 1. **采样策略** | 策略类型 | 配置示例 | 适用场景 | |---------|---------|---------| | 固定采样 | `probability: 0.1` | 高流量生产环境 | | 自适应采样 | 需实现`Sampler`接口 | 动态调整采样率 | 2. **存储优化** ```yaml # 使用Elasticsearch存储 zipkin: storage: type: elasticsearch elasticsearch: hosts: http://es-host:9200 index: zipkin timeout: 10000 ``` 3. **传输协议选择** ```properties # 使用Kafka传输(高吞吐场景) spring.zipkin.sender.type=kafka spring.kafka.bootstrap-servers=localhost:9092 ``` --- #### 四、故障排查 1. **数据未上报** - 检查`spring.sleuth.sampler.probability`是否大于0 - 验证Zipkin服务端连通性 - 查看客户端日志中的`Brave`组件报错 2. **UI显示不完整** - 确认所有服务的时间戳同步(NTP服务) - 检查Span中`parentId`是否正确关联 --- #### 五、性能指标 Zipkin的性能消耗主要来自: $$T_{total} = N \times (T_{instrument} + T_{transport})$$ 其中: - $N$:采样请求量 - $T_{instrument}$:代码注入耗时(约5-20μs/span) - $T_{transport}$:数据传输耗时(HTTP约1-5ms/批次) ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值