Kafka:创建主题,查看主题,压力测试,发送和接收数据

前言

在现今的大数据时代,数据流的处理与分析成为了许多企业和组织的核心需求。Apache Kafka作为一个分布式流处理平台,以其高性能、高吞吐量和可靠性在大数据领域崭露头角。它允许在分布式系统中处理和传输实时的数据流,为数据处理提供了全新的解决方案。

对于Kafka的初学者和开发者来说,熟练掌握其基础操作至关重要。为此,本文将带领读者走进Kafka的世界,深入探讨主题的创建、管理,以及消息的发送与接收等核心操作。希望通过本文的学习,读者能够对Kafka有更深入的理解,并能在实际开发中运用自如,充分发掘Kafka的潜力,为大数据处理助力。

一、创建主题

在Kafka中,需要先创建主题(topics)才能进行数据的发送和接收。

创建主题位置: kafka/bin


./kafka-topics.sh --bootstrap-server hadoop01:9092 --create --topic test1 --partitions 3 --replication-factor 2 

解释:这里我们创建了一个 名为test1的主题,并为其设置了 3 个分区 2 个副本
–replication-factor 2 #复制两份
–partitions 3 #创建3个分区
–topic #主题名为test1

二、查看主题

./kafka-topics.sh --list --bootstrap-server hadoop01:9092

在这里插入图片描述

三、删除主题


kafka-topics.sh --bootstrap-server hadoop01:9092 --delete --topic test1   # 删除test1这个topic

四、 压力测试

./kafka-producer-perf-test.sh --topic test1 --record-size 1024 --num-records 1000000 --throughput 10000 --producer-props bootstrap.servers=hadoop01:9092,hadoop02:9092,hadoop03:9092 batch.size=4096 linger.ms=0
在这里插入图片描述

测试结果

在这里插入图片描述

五、发送和接收消息

Kafka提供了命令行工具来发送和接收消息。

消息收发的大致流程:生产者产生消息数据一>写入到Kafkal的Topic中一>消费者从Topic中读取消息数据。

发送消息

生产者(Producer)创建消息数据。
生产者将消息数据发送到Kafka的消息队列中。Kafka的节点包含一个或多个Broker,消息会存储在这些Broker中的Topic(主题)里面。不同类型的消息数据可以存储在不同的Topic中,这样可以利用Topic实现消息的分类。
在发送消息时,生产者还可以选择一些参数进行配置,例如批处理大小(batch.size)和延迟(linger.ms)等,来优化性能和吞吐量。

创建消费文件 :vi commodity_click-kafka-men-hdfs.conf

#sources
a1.sources = s1
a1.sources.s1.type = org.apache.flume.source.kafka.KafkaSource
a1.sources.s1.batchSize = 100
a1.sources.s1.batchDurationMillis = 2000
a1.sources.s1.kafka.topics = commodity
a1.sources.s1.kafka
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值