大数据集群配置-kafka

本文档详细介绍了如何在多台服务器上部署Zookeeper和Kafka集群,包括配置主机名、IP映射、免密登录、关闭防火墙、安装Java、解压安装包、修改配置文件、启动服务、创建与管理topic等步骤,确保集群的正常运行。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Kafka组件部署

0.准备工作

  1. 配置主机名和ip
# master 查看ip
hostname master && bash
echo master > /etc/hostname
ip a
# slave1 查看ip
hostname master && bash
echo slave1 > /etc/hostname
ip a
# slave2 查看ip
hostname master && bash
echo slave2 > /etc/hostname
ip a
# 配置ip映射
vi /etc/hosts
# 例如,ip不代表你本机ip,记得更换
# 三台都需要配置hosts文件
192.168.10.3 master
192.168.10.4 slave1
192.168.10.5 slave2
  1. 配置免密
# 查看ssh进程
ps - ef | grep ssh
# master
# 生成密钥ssh-keygen -t rsa 一直回车
# 复制key文件ssh-copy-id 输入yes 输入密码
ssh-keygen -t rsa
ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2
# slave1
ssh-keygen -t rsa
ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2
# slave2
ssh-keygen -t rsa
ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2

  1. 测试免密
ssh slave1
  1. 关闭防火墙
# master slave1 slave2
systemctl stop firewalld
systemctl disable firewalld
  1. 安装java
  • /root/.bashrc只对当前用户有效,/etc/profile是对全部用户有效
tar -zxvf /opt/software/jdk-8u161-linux-x64.tar.gz -C /usr/local/src
mv /usr/local/src/jdk1.8.0_65 /usr/local/src/java
vi /root/.bashrc
export JAVA_HOME=/usr/local/src/java
export PATH=$PATH:$JAVA_HOME/bin
scp -r /usr/local/src/java slave1:/usr/local/src
scp -r /usr/local/src/java slave2:/usr/local/src
scp /root/.bashrc slave1:/root
scp /root/.bashrc slave2:/root

# master
source /root/.bashrc
# slave1
source /root/.bashrc
# slave2
source /root/.bashrc
软件名称软件包名
Zookeeperzookeeper-3.4.8.tar.gz
Kafkakafka_2.11-1.0.0.tgz
jdkjdk-8u65-linux-x64.tar.gz
CentOSCentOS 7.4(mini 英文版本)

1.安装zookeeper 并配置 启动

  • 安装过了不用安装!!!!

  • 需安装 Zookeeper 组件具体要求同 Zookeeper 任务要求

  1. 解压安装包到指定目录
tar -zxvf /opt/software/zookeeper-3.4.8.tar.gz -C /usr/local/src
  1. 改名
cd /usr/local/src/
mv zookeeper-3.4.8 zookeeper
  1. 修改zoo.cfg配置文件
cd zookeeper/conf
mv zoo_sample.cfg zoo.cfg
vi zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
clientPort=2181
dataDir=/usr/local/src/zookeeper/data
dataLogDir=/usr/local/src/zookeeper/logs
server.1=master:2888:3888
server.2=slave1:2888:3888
server.3=slave2:2888:3888
  1. 创建data和logs目录
mkdir -p /usr/local/src/zookeeper/{data,logs}
  1. 创建myid文件
echo 1 > /usr/local/src/zookeeper/data/myid
  1. 配置环境zookeeper变量
vi /root/.bashrc
export ZK_HOME=/usr/local/src/zookeeper
export PATH=$PATH:$ZK_HOME/bin
source /root/.bashrc
chown -R root:root usr/local/src/zookeeper
  1. 分发zookeeper和profile文件到其他集群
## master
scp -r /usr/local/src/zookeeper slave1:/usr/local/src
scp -r /usr/local/src/zookeeper slave2:/usr/local/src
scp /root/.bashrc slave1:/root
scp /root/.bashrc slave2:/root
  1. 更改slave1的myid文件
# slave1
echo 2 > /usr/local/src/zookeeper/data/myid
source /root/.bashrc
  1. 更改slave2的myid文件
# slave2
echo 3 > /usr/local/src/zookeeper/data/myid
source /root/.bashrc
  1. 进入zookeeper目录关闭防火墙并启动zookeeper
# master
cd /usr/local/src/zookeeper
zkServer.sh start
# slave1
cd /usr/local/src/zookeeper
zkServer.sh start
# slave2
cd /usr/local/src/zookeeper
zkServer.sh start
  1. 查看是否成功并截图保存结果
# master
zkServer.sh status
# slave1
zkServer.sh status
# slave2
zkServer.sh status

2.安装Kafka

  1. 解压 Kafka 安装包到“/usr/local/src”路径
tar -zxvf /opt/software/kafka_2.11-1.0.0.gz -C /usr/local/src
  1. 并修改解压后文件夹名为 kafka,截图并保存结果;并修改解压后文件夹名为 kafka
cd /usr/local/src
mv kafka_2.11-1.0.0 kafka
  1. 截图并保存结果;
ll

3.配置kafka环境变量

  1. 设置 Kafka 环境变量,并使环境变量只对当前 root 用户生效,截图并保存 结果;
vi /root/.bashrc
export KAFKA_HOME=/usr/local/src/kafka
export PATH=$PATH:$KAFKA_HOME/bin
# :wq! 保存退出并source
source /root/.bashrc

4. 修改kafka相应文件并截图保存

  1. 修改master并截图
# master
# /zookeeper 快速查找,n向下查找,N向上查找,查到后直接 i 进入编辑模式
vi kafka/config/server.properties
broker.id=0
zookeeper.connect=master:2181,slave1:2181,slave2:2181
  1. 分发
scp -r /usr/local/src/kafka slave1:/usr/local/src
scp -r /usr/local/src/kafka slave2:/usr/local/src
scp /root/.bashrc slave1:/root
scp /root/.bashrc slave2:/root
  1. 修改slave1 slave2并截图保存
# 修改slave1和slave2的broker.id
# slave1
vi /usr/local/src/kafka/config/server.properties
broker.id=1
#保存退出
source /root/.bashrc
# slave2
vi /usr/local/src/kafka/config/server.properties
broker.id=2
#保存退出
source /root/.bashrc

5.启动kafka并截图保存结果

# master
kafka-server-start.sh -daemon /usr/local/src/kafka/config/server.properties 
# slave1
kafka-server-start.sh /usr/local/src/kafka/config/server.properties
# slave2
kafka-server-start.sh /usr/local/src/kafka/config/server.properties

6.创建指定topic并截图保存结果

# --topic 后跟 topic的名字
kafka-topics.sh --create --zookeeper master:2181,slave1:2181,slave2:2181 --replication-factor 2 --topic hello --partitions 1

7.查看所有topic信息并截图保存结果

kafka-topics.sh --list --zookeeper master:2181,slave1:2181,slave2:2181

8.启动指定生产者(producer)并截图并保存结果;

# --topic 后面为tpoic的名字
kafka-console-producer.sh --broker-list master:9092,slave1:9091,slave2:9092 --topic hello

9. 启动消费者(consumer),并截图并保存结果

# --topic 后面为tpoic的名字
kafka-console-consumer.sh --bootstrap-server master:9092,slave1:9091,slave2:9092  --topic hello --from-beginning

10.测试生产者(producer),并截图并保存结果;

# producer随便输入点东西

11.测试消费者(consumer),并截图并保存结果。

# consumer可以看到输出
### Kafka大数据平台上的运维 #### 日常运维工作 完成Kafka集群的日常运维工作包括但不限于上线、日常监控、问题定位以及脚本开发。这些操作对于确保Kafka作为消息队列系统的稳定性和高效运行至关重要[^4]。 #### 监控与告警设置 为了保障Kafka集群健康运转,需建立完善的监控体系。这一体系应覆盖多个方面,如Broker状态、Topic指标、Consumer Group偏移量等。通过配置合理的阈值触发告警机制,在异常情况发生时能够及时通知相关人员采取措施[^1]。 #### 故障排查流程 当遇到故障时,可以遵循如下几个方向来进行诊断: - **日志分析**:查看Kafka Broker的日志文件,寻找错误提示或警告信息; - **性能瓶颈检测**:利用JVM工具集(jstat, jmap)检查是否存在内存泄漏等问题;也可以借助于操作系统层面命令(top, iostat),评估磁盘I/O压力大小; - **网络连通性验证**:确认Producer和Consumer能否正常连接至指定Brokers端口,保持良好通信质量。 #### 性能调优建议 针对不同场景下的应用特点实施针对性优化策略: - 对于高吞吐量写入负载,适当增加Partition数量可提高行度从而加快数据传输速度; - 调整`log.segment.bytes`, `retention.ms`参数控制单个Log Segment大小及过期时间,平衡存储空间占用率同历史记录保留期限之间的关系; - 如果发现频繁GC现象,则考虑调整堆外内存分配比例或是启用G1收集器等方式缓解此状况[^2]。 ```bash # 查看Kafka broker的状态 sudo systemctl status kafka # 使用kafkacat工具测试生产者发送消息 echo "test message" | kafkacat -b localhost:9092 -t test_topic -P # 检查消费者组滞后情况 /usr/hdp/current/kafka-broker/bin/kafka-consumer-groups.sh --bootstrap-server localhost:9092 --describe --group my-group-name ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

厨 神

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值