kafka笔记1

本文详细介绍如何安装及运行Zookeeper与Kafka,并通过具体步骤演示如何创建主题、生产和消费消息。此外,还提供了一个使用Golang实现的简单示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、zookeeper默认端口:2181

2、kafka默认端口:9092

3、运行Zookeeper

进入zookeeper-3.4.9\bin目录,双击zkServer.cmd如果打印以下信息则表示zookeeper已经安装成功并运行在2181端口

4、运行kafka: 

 .\bin\windows\kafka-server-start.bat .\config\server.properties

5、创建主题:

.\bin\windows\kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic topic01

6、查看主题:

.\bin\windows\kafka-topics.bat -zookeeper localhost:2181 --list

7、创建生产者,进行cmd命令窗口,创建成功后不要关闭窗口

.\bin\windows\kafka-console-producer.bat --broker-list localhost:9092 --topic topic01

8、创建消费者,进行cmd命令窗口,创建成功后不要关闭窗口

.\bin\windows\kafka-console-consumer.bat --bootstrap-server localhost:9092 --topic topic01

9、效果

生产者:

消费者:

10、golang代码实现:

package main

import (
	"fmt"
	"time"
	"github.com/Shopify/sarama"
)

func main() {

	config := sarama.NewConfig()                   //实例化配置
	/*发一个消息给kafka,kafka把它保存到日志文件里面,返回一个ACK。等待ACK,确定数据放盘。
	看数据是否重要。*/
	config.Producer.RequiredAcks = sarama.WaitForAll
	//分区,topic,把topic分区,分成不同的队列,可以并发
	//这里使用随机分区,随机的分到8台机器上去
	config.Producer.Partitioner = sarama.NewRandomPartitioner
	config.Producer.Return.Successes = true

	//生产者实例,SyncProducer,这里是异步的,会先发到channel里面
	client, err := sarama.NewSyncProducer([]string{"localhost:9092"}, config)
	if err != nil {
		fmt.Println("producer close, err:", err)
		return
	}

	defer client.Close()
	for {
		//msg:要写入kafka中的数据,msg.Topic:指定kafka中的topic
		msg := &sarama.ProducerMessage{}
		msg.Topic = "topic01"
		msg.Value = sarama.StringEncoder("this is a good test, my message is good")

		//消息发出去后,返回一个分区的pid,以及在该分区中的偏移量。
		pid, offset, err := client.SendMessage(msg)
		if err != nil {
			fmt.Println("send message failed,", err)
			return
		}

		fmt.Printf("pid:%v offset:%v\n", pid, offset)
		time.Sleep(10 * time.Millisecond)
	}
}

效果:

客户端消费者:消费者可以取到kafaka中的信息

### 尚硅谷 Kafka 学习笔记 #### 创建 Kafka 生产者并发送消息 为了创建一个简单的 Kafka 生产者并向指定主题发送消息,在命令行工具中可以执行如下操作。通过 `bin/kafka-console-producer.sh` 脚本启动生产者客户端,并指定了引导服务器地址以及目标主题名称[^1]。 ```bash [atguigu@hadoop102 kafka]$ bin/kafka-console-producer.sh --bootstrap-server hadoop102:9092 --topic first > hello ``` 此命令允许用户手动输入要发布的消息内容,每条新消息以回车键结束提交给集群处理。 #### 修改消费者配置文件设置分组ID 对于希望自定义消费逻辑的应用程序来说,调整消费者的配置参数是非常重要的一步。具体而言,可以通过编辑 `/opt/module/kafka/config/consumer.properties` 文件内的 `group.id` 属性来设定唯一的消费者组标识符[^4]。 ```properties [atguigu@hadoop103 config]$ vi consumer.properties group.id=atguigu ``` 这里展示了如何更改默认值为特定字符串(如 "atguigu"),从而确保不同实例之间不会相互干扰。 #### 实现自定义分区器 当业务需求涉及到更复杂的路由策略时,则可能需要用到自定义的 Partitioner 类型。下面给出了一种基于关键字匹配决定消息所属分区的方法示例代码片段[^5]: ```java public class MyPartitioner implements Partitioner { @Override public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) { String inputValue = (value != null && !"".equals(value)) ? value.toString() : ""; if ("hello".contains(inputValue)){ return 1; } else{ return 0; } } @Override public void close(){} @Override public void configure(Map<String, ?> configs){} } ``` 这段 Java 程序实现了 `Partitioner` 接口,并覆盖了其抽象方法 `partition()` 来判断传入的消息体是否包含预设关键词 `"hello"`;如果条件成立则返回整数 `1` 表明该记录应分配至编号为 `1` 的物理分区上,反之亦然。 #### 关于日志与数据存储机制的理解 值得注意的是,Kafka 中的日志目录实际上是指向实际保存二进制编码后的消息集合的位置。由于这些对象经过序列化过程变得难以直观理解,因此建议开发者熟悉相关概念以便更好地管理和维护系统性能[^2]。 另外,关于偏移量 Offset 的管理方式也值得深入探讨。每个存储单元都会依据首次出现位置获得独一无二的名字格式——即形似 `xxxxxx.kafka` 这样的文件名模式,其中 x 可能代表任意长度但始终递增的一串数字字符[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值