1.上传kafka_2.11-0.11.0.0.tgz
2.解压
tar -zxvf kafka_2.11-0.11.0.0.tgz -C /usr/local/
3.修改server.properties
vim server.properties
修改内容如
#broker的全局唯一编号,不能重复
broker.id=0
#删除topic功能使能
delete.topic.enable=true
#配置连接Zookeeper集群地址
zookeeper.connect=hadoop102:2181,hadoop103:2181,hadoop104:2181
4.配置环境变量
vim /etc/profile
配置内容如下
#KAFKA_HOME
export KAFKA_HOME=/usr/local/kafka_2.11-0.11.0.0
export PATH=$PATH:$KAFKA_HOME/bin
5.分发到hadoop02、hadoop03
scp -r /usr/local/kafka_2.11-0.11.0.0/ hadoop02:/usr/local/
scp -r /usr/local/kafka_2.11-0.11.0.0/ hadoop03:/usr/local/
6.修改hadoop02和hadoop03配置文件
vim server.properties
修改内容如下
hadoop02
broker.id=1
hadoop03
broker.id=2
博客介绍了Kafka的安装与配置过程。首先上传并解压Kafka安装包,接着修改server.properties文件,然后配置环境变量。之后将配置分发到hadoop02和hadoop03节点,并对这两个节点的配置文件进行修改。
1404

被折叠的 条评论
为什么被折叠?



