Linux下搭建kafka环境

本文详细介绍如何下载、解压并安装Kafka,包括启动Zookeeper和Kafka服务、创建Topic,以及如何使用Producer和Consumer进行消息的发送与接收。

1.下载kafka

Apache官网http://kafka.apache.org/downloads.html

最新版下载:点击下载
2.解压下载的kafka

tar -xzf kafka_2.10-0.8.2.2.tgz

cd kafka_2.10-0.8.2.2
3. 启动服务
3.1 启动zookeeper

启动zk有两种方式,第一种是使用kafka自己带的一个zk。

bin/zookeeper-server-start.sh config/zookeeper.properties &

另一种是使用其它的zookeeper,可以位于本机也可以位于其它地址。这种情况需要修改config下面的sercer.properties里面的zookeeper地址 。例如zookeeper.connect=10.202.4.179:2181

3.2 启动 kafka
bin/kafka-server-start.sh config/server.properties

4.创建topic
bin/kafka-topics.sh –create –zookeeper 10.202.4.179:2181 –replication-factor 1 –partitions 1 –topic test
创建一个名为test的topic,只有一个副本,一个分区。

通过list命令查看刚刚创建的topic
bin/kafka-topics.sh -list -zookeeper 10.202.4.179:2181

5.启动producer并发送消息启动producer

bin/kafka-console-producer.sh –broker-list localhost:9092 –topic test

启动之后就可以发送消息了

比如

test

hello boy

按Ctrl+C退出发送消息

6.启动consumer

bin/kafka-console-consumer.sh –zookeeper 10.202.4.179:2181 –topic test –from-beginning

启动consumer之后就可以在console中看到producer发送的消息了

可以开启两个终端,一个发送消息,一个接受消息。

Linux 系统下搭建 Kafka 可按以下步骤进行: 1. **安装 JDK**:Kafka 是基于 Java 开发的,所以需要先安装 JDK。 2. **安装 Kafka**:将下载的 Kafka 放在指定目录,例如 `/opt/kafka`,然后进行解压操作,命令如下: ```bash tar -zxvf kafka_2.12-3.4.1.tgz ``` 3. **配置 Kafka 服务**:进入 Kafka 配置目录并修改 `server.properties` 文件,示例如下: ```bash cd /opt/kafka/kafka_2.12-3.4.1/config vim server.properties ``` 修改的参数内容如下: ```plaintext broker.id=0 port=9092 host.name=localhost log.dirs=/opt/kafka/kafka_log zookeeper.connect=localhost:2181 ``` 其中,`broker.id` 为节点的唯一标识,`port` 是端口号,`host.name` 需修改为自己的服务器 IP,`log.dirs` 是日志存放路径,`zookeeper.connect` 为 Zookeeper 地址和端口(单机配置部署为 `localhost:2181`) [^2]。 4. **修改 Zookeeper 配置文件**:修改 `config/zookeeper.properties` 文件(虽然在单机简单配置中可能使用默认配置,但完整安装流程包含此步骤) [^3]。 5. **启动 Kafka**:使用以下命令启动 Kafka: ```bash /opt/kafka/kafka_2.12-3.4.1/bin/kafka-server-start.sh /opt/kafka/kafka_2.12-3.4.1/config/server.properties ``` 6. **测试实例**: - **创建 Topic**:可使用相关命令创建主题。 - **查看 Topic**:查看已创建的主题。 - **删除 Topic**:删除指定主题。 - **生产/消费数据**:进行消息的生产和消费操作,以验证 Kafka 是否正常工作 [^3]。 另外,如果要搭建 Kafka 集群(如 3 个 broker),还需要进一步的搭建和测试过程,包括了解副本概念、进行集群消息的生产和消费、集群消费组的消费等操作 [^3]。同时,在关闭 Kafka 时,要先关闭 Kafka,再关闭 Zookeeper,否则可能导致 Kafka 进入死循环,若进入死循环则需强制杀掉 Kafka 服务进程 [^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值