kafka topic

本文详细介绍如何使用Kafka进行主题的创建、生产消息、消费消息、查看及删除主题的操作流程。包括具体的命令行操作,如使用kafka-topics.sh脚本进行主题管理,以及kafka-console-producer.sh和kafka-console-consumer.sh进行消息的生产和消费。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Kafka创建topic:

 

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 3 --topic test    

kafka生产者

./kafka-console-producer.sh --broker-list 192.168.69.64:9092 --topic queue_command_to_device_sungrow

 

kafka消费者

./kafka-console-consumer.sh --zookeeper localhost:2181 --topic queue_command_to_device_sungrow

 

查看topic详细信息

./kafka-topics.sh --zookeeper localhost:2181 --topic sungrow_queue_protocol_r2p3 --describe

 

查看主题

bin/kafka-topics.sh --list --zookeeper 192.168.69.64:2181

删除主题

[root@kafka2 bin]# ./kafka-topics.sh --delete --zookeeper localhost:2181  --topic sungrow_queue_ssmerge_r2p1
Topic sungrow_queue_ssmerge_r2p1 is marked for deletion.
Note: This will have no impact if delete.topic.enable is not set to true.

 

### Kafka Topic 在数据库逻辑复制链路中的作用与配置方法 #### 1. Kafka Topic 的作用 Kafka TopicKafka 中的数据流单元,用于存储从源端数据库捕获的变更数据,并将其传递到目标端数据库。在数据库逻辑复制链路中,Kafka Topic 起到了以下关键作用: - **数据缓冲**:Kafka Topic 提供了高吞吐量和低延迟的数据缓冲能力,能够有效地应对生产者和消费者之间的速率差异[^2]。 - **解耦生产者与消费者**:通过 Kafka Topic,源端数据库(生产者)和目标端数据库(消费者)可以独立运行,无需直接交互[^3]。 - **数据持久化**:Kafka Topic 可以将数据持久化到磁盘,确保即使在系统故障的情况下也能恢复数据[^4]。 #### 2. Kafka Topic 的配置方式 在数据库逻辑复制链路中,Kafka Topic 的配置需要根据具体需求进行优化,以下是一些关键配置参数及其作用: - **`partitions`**:定义 Topic 的分区数。分区数决定了并行度,通常建议设置为与消费者实例数相匹配,以实现负载均衡[^5]。 - **`replication-factor`**:定义 Topic 的副本数。较高的副本数可以提高数据可靠性,但会增加存储开销[^6]。 - **`retention.ms`**:设置消息在 Topic 中的保留时间。对于逻辑复制场景,可以根据目标端数据库的消费速度调整此参数[^7]。 - **`cleanup.policy`**:指定 Topic 的清理策略,常见的值为 `delete`(删除过期消息)或 `compact`(对消息进行压缩去重)[^8]。 以下是一个典型的 Kafka Topic 配置示例: ```bash kafka-topics.sh --create \ --zookeeper localhost:2181 \ --replication-factor 3 \ --partitions 6 \ --topic database-replication-topic \ --config retention.ms=86400000 \ --config cleanup.policy=compact ``` 上述命令创建了一个名为 `database-replication-topic` 的 Topic,具有以下特性: - 3 个副本以提高可靠性[^6]。 - 6 个分区以支持高并发[^5]。 - 消息保留时间为 1 天(86,400,000 毫秒)[^7]。 - 使用 `compact` 清理策略以减少存储开销[^8]。 #### 3. 数据流动过程中的 Kafka Topic 在数据库逻辑复制链路中,Kafka Topic 是数据流动的核心环节。以下是数据流动的典型过程: - **Source Connector 写入**:Source Connector 从源端数据库中捕获变更日志(如 DML、DDL 操作),并将这些变更以结构化格式写入 Kafka Topic[^9]。 - **数据处理**:在 Kafka 中间层,可以通过 Single Message Transform (SMT) 或 Kafka Streams 对消息进行转换、过滤或增强操作[^10]。 - **Sink Connector 读取**:Sink Connector 从 Kafka Topic 中读取消息,并将其写入目标端数据库,完成逻辑复制过程[^11]。 #### 4. 示例代码 以下是一个完整的配置示例,展示了如何通过 Kafka Topic 实现数据库逻辑复制链路: - **Source Connector 配置** ```properties name=mysql-source-connector connector.class=io.debezium.connector.mysql.MySqlConnector tasks.max=1 database.hostname=localhost database.port=3306 database.user=root database.password=password database.server.id=18405 database.whitelist=my_database table.whitelist=my_table kafka.topic=database-replication-topic ``` - **Sink Connector 配置** ```properties name=postgres-sink-connector connector.class=io.confluent.connect.jdbc.JdbcSinkConnector tasks.max=1 topics=database-replication-topic connection.url=jdbc:postgresql://localhost:5432/my_database connection.user=postgres connection.password=secret auto.create=true insert.mode=upsert pk.fields=id pk.mode=kafka ``` 上述配置中,`database-replication-topic` 是 Kafka Topic 的名称,连接了 Source Connector 和 Sink Connector[^12]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值