安装kafka时过程笔记,不是很详细

1、创建test用户

adduser test


2、?给test用户设置密码

passwd test(输入两次密码)


3、给/etc/sudoers文件添加写权限

chmod -v u+w /etc/sudoers


4、给test用户授root权限,
编辑/etc/sudoers  

vi /etc/sudoers


## Allow root to run any commands anywhere

root? ? 
ALL=(ALL)? ? ? 
?ALL

rabbitmq ALL=(ALL)? ? ? ?
ALL (添加这一行)


保存退出


rpm -qa|grep java
 rpm -qa|grep jdk

 vi /etc/profile

JAVA_HOME=/usr/local/jdk/jdk1.8.0_91
JRE_HOME=$JAVA_HOME/jre
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
CLASSPATH=:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib/dt.jar
export JAVA_HOME JRE_HOME PATH CLASSPATH


 source /etc/profile


export ZOOKEEPER_HOME=/usr/zookeeper
export PATH=.:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$PATH

创建zook数据目录
/home/data/zkcluster

dataLogDir=/home/data/zkcluster/logs

关闭防火墙
firewall-cmd --zone=public --add-port=2181/tcp --permanent
firewall-cmd --reload


firewall-cmd --zone=public --add-port=2888/tcp --permanent
firewall-cmd --zone=public --add-port=3888/tcp --permanentfirewall-cmd --add-service=mysql # 开放mysql端口
firewall-cmd --remove-service=http # 阻止http端口
firewall-cmd --list-services # 查看开放的服务
firewall-cmd --add-port=3306/tcp # 开放通过tcp访问3306
firewall-cmd --remove-port=80tcp # 阻止通过tcp访问3306
firewall-cmd --add-port=233/udp # 开放通过udp访问233
firewall-cmd --list-ports # 查看开放的端口

systemctl status firewalld.service  #检查防火墙状态  
  
systemctl stop firewalld.service  #关闭防火墙  

systemctl stop firewalld.service #停止firewall
systemctl disable firewalld.service #禁止firewall开机启动

1
2
[root@localhost ~]#systemctl stop firewalld.service
[root@localhost ~]#systemctl disable firewalld.service
启动一个服务:systemctl start firewalld.service
关闭一个服务:systemctl stop firewalld.service
重启一个服务:systemctl restart firewalld.service
显示一个服务的状态:systemctl status firewalld.service
在开机时启用一个服务:systemctl enable firewalld.service
在开机时禁用一个服务:systemctl disable firewalld.service
查看服务是否开机启动:systemctl is-enabled firewalld.service;echo $?
查看已启动的服务列表:systemctl list-unit-files|grep enabled

  
systemctl disable firewalld.service  #禁止开机启动防火墙 

server.1=172.16.6.8:2881:3881  
server.2=172.16.6.9:2882:3882  
server.3=172.16.6.10:2883:3883


ps aux|grep zookeeper

message.max.byte=5242880
default.replication.factor=2
replica.fetch.max.bytes=5242880


listeners=PLAINTEXT://172.16.6.8:9092


auto.create.topics.enable=false


export KAFKA_HOME=/usr/kafka
PATH=$PATH:$KAFKA_HOME/bin


firewall-cmd --zone=public --add-port=9092/tcp --permanent

firewall-cmd --reload


守护进程模式
./kafka-server-start.sh -daemon ../config/server.properties  

创建一个topic
bin/kafka-topics.sh --create --zookeeper 172.16.6.8:2181,172.16.6.9:2181,172.16.6.10:2181 --replication-factor 1 --partitions 1 --topic test

查看topic列表
kafka-topics.sh --list --zookeeper 172.16.6.8:2181

模拟客户方发送消息
bin/kafka-console-producer.sh --broker-list 172.16.6.8:9092,172.16.6.9:9092,172.16.6.10:9092 --topic ebadata

模拟客户端接收
bin/kafka-console-consumer.sh --zookeeper 172.16.6.8:2181,172.16.6.9:2181,172.16.6.10:2181 --from-beginning --topic test

### 关于 Kafka 的编程学习资料 #### 来自黑马程序员的学习资源 在《黑马程序员》提供的学习材料中涵盖了多种技术栈的学习笔记,其中包括了Kafka的相关内容[^1]。这些笔记不仅涉及到了Kafka的基础概念,还深入探讨了其高级特性和实际应用案例。 对于希望深入了解Kafka的同学来说,《黑马程序员》提供了详细的文档来帮助理解如何配置、管理和优化这个分布式流处理平台。此外,在该系列的教学视频里也有关于消息队列系统的讲解部分专门针对Kafka进行了剖析,使学员能够掌握从理论到实践的一整套技能体系。 #### 尚硅谷的大数据学习路径中的Kafka 按照尚硅谷给出的大数据学习路线图,当完成了前期的核心基础知识积累之后就会进入到大数据核心技术框架阶段,而此就包含了对Kafka的学习[^2]。此阶段的目标是让学习者熟悉并能熟练运用像Hadoop, Spark以及Flink这样的工具集来进行大规模数据分析工作的同也要学会利用Kafka实现高效的数据传输与存储解决方案。 在这个过程中,通过一系列精心设计的实验环境设置指导加上真实世界的项目演练机会使得每位参与者都能够获得足够的动手经验从而更好地应对未来可能遇到的各种挑战。 ```python from kafka import KafkaProducer producer = KafkaProducer(bootstrap_servers='localhost:9092') future = producer.send('my-topic', b'raw_bytes') result = future.get(timeout=60) print(result) ``` 上述Python代码展示了如何创建一个简单的生产者实例并向指定主题发送一条消息。这只是一个非常基础的例子;实际上,在更复杂的场景下还可以探索更多功能比如消费者组管理、事务支持等特性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值