kafka_2.11 安装配置 (详细图文)

本文详细介绍了Kafka_2.11的安装配置过程,包括解压、配置环境变量、发送到集群节点、配置server.properties文件(如修改监听端口、Zookeeper连接、broker ID及日志目录),以及启动和关闭Kafka server的方法。

准备工作

先从官网上下载好该版本的安装包,并上传到集群中任意一台主机(我上传到了master上)
这里写图片描述

1 安装配置

1.1 解压

我是放到 /usr/hadoop 目录下的,解压之后会多出来一个 kafka_2.11-0.10.1.0 的目录
这里写图片描述

1.2 配置环境变量

在 /etc/profile 中添加如下配置
这里写图片描述

使环境变量生效

[root@master hadoop]# source /etc/profile
[root@master hadoop]#
1.3 发送到集群中其他节点

这时候把我们的 /etc/profile 发送到 slave1、slave2 节点上:

[root@master hadoop]# scp /etc/profile root@slave1:/etc/
...
[root@master hadoop]# scp /etc/profile root@slave2:/etc/
...

发送 kafka 整个文件夹到 slave1、slave2 节点上:

[root@master hadoop]# scp -r kafka_2.11-0.10.1.0 root@slave1:/usr/hadoop
...
[root@master hadoop]# scp -r kafka_2.11-0.10.1.0 root@slave2:/usr/hadoop
...
1.4 配置 server.properties

其实单节点的 kafka 是不用修改这个文件的,直接仿照官网的介绍就可以了,但是我们搭建的是一个集群。这里的配置文件需要修改,有三四处吧。

1.4.1 打开监听端口
############################# Socket Server Settings #############################

# The address the socket server listens on. It will get the value returned from
# java.net.InetAddress.getCanonicalHostName() if not configured.
#   FORMAT:
#     listeners = security_protocol://host_name:port
#   EXAMPLE:
#     listeners = PLAINTEXT://your.host.name:9092
listeners=PLAINTEXT://:9092     # 取消这一行的注释
1.4.2 修改 zookeeper.connect
############################# Zookeeper #############################

# Zookeeper connection string (see zookeeper docs for details).
# This is a comma separated host:port pairs, each corresponding to a zk
# server. e.g. "127.0.0.1:3000,127.0.0.1:3001,127.0.0.1:3002".
# You can also append an optional chroot string to the urls to specify the
# root directory for all kafka znodes.
zookeeper.connect=master:2181,slave1:2181,slave2:2181   # 修改成为我们搭建的zookeeper集群

# Timeout in ms for connecting to zookeeper
zookeeper.connection.timeout.ms=6000
1.4.3
### Kafka 2.11-2.4.0 安装配置教程 #### 下载安装包 对于Kafka版本`2.11-2.4.0`,其对应的Scala版本为2.11,而具体的Kafka版本号则为2.4.0[^1]。可以从官方提供的下载页面获取该特定版本的压缩文件,通常命名为类似于`kafka_2.11-2.4.0.tgz`的形式。 #### 文件传输至服务器 利用XFTP或其他类似的SFTP客户端工具可以方便地将本地计算机上的Kafka安装包上传到远程Linux系统的指定目录下[^2]。这一步骤确保了后续可以在目标机器上执行解压以及进一步的操作。 #### 解压并设置环境变量 一旦完成了上传操作,则需登录到相应的Linux实例,在命令行界面中切换到存储有`.tgz`文件的位置,并运行如下指令来完成解压缩工作: ```bash tar -xzf kafka_2.11-2.4.0.tgz cd kafka_2.11-2.4.0/ ``` 为了简化之后调用Kafka相关脚本的过程,建议添加路径到用户的PATH环境中去。可以通过编辑个人shell配置文件(比如~/.bashrc),加入下面这一行实现此目的: ```bash export PATH=$HOME/kafka_2.11-2.4.0/bin:$PATH ``` 接着使更改生效: ```bash source ~/.bashrc ``` #### 配置Zookeeper服务 由于Kafka依赖于ZooKeeper来进行协调管理,因此在启动之前还需要先确认已经正确设置了ZooKeeper的服务端口,默认情况下监听的是2181端口。如果尚未部署ZooKeeper集群的话,可以选择从同一套件内附带的一个单节点模式作为临时解决方案。 创建一个新的会话窗口用于持续保持ZooKeeper进程处于活动状态: ```bash bin/zookeeper-server-start.sh config/zookeeper.properties & ``` #### 启动Kafka Broker 当上述准备工作完成后就可以尝试开启Broker节点了。同样地,新开一个终端标签页以便单独监控这个过程中的日志输出情况: ```bash bin/kafka-server-start.sh config/server.properties & ``` 此时理论上就已经成功搭建起了基于单一主机的小型测试平台;当然实际生产环境下往往涉及多台物理机组成的分布式架构设计,这就需要更加复杂的参数调整和网络规划了。 #### 创建主题Topic 最后介绍如何定义消息传递的主题结构——即所谓的Topics。假设想要建立名为test-topic的数据通道供应用程序间通信之用,那么只需简单输入下列语句即可达成所愿: ```bash bin/kafka-topics.sh --create --topic test-topic --bootstrap-server localhost:9092 --partitions 1 --replication-factor 1 ``` 以上就是关于Kafka `2.11-2.4.0` 版本的基础安装流程概述及其初步使用的指导说明[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值