kafka消费mysql数据的安装部署

本文详细介绍了如何在Linux环境下安装部署Kafka,以消费MySQL数据。首先,需要安装JDK 1.8及以上版本,接着部署Zookeeper,然后安装MySQL,最后安装Kafka和ksql,并配置相关环境及启动服务。通过这些步骤,确保Kafka能够从MySQL获取数据。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

部署文档

一:安装jdk(必须1.8及以上版本)

1.检测系统是否有自带的jdk环境  java -version

2.如果有自带jdk则检测jdk的安装包 rpm -qa | grep java

3.根据检测的包名卸载jdk rpm -e --nodeps +包名

4.检测是否还存在jdk安装包  rpm -qa | grep java  

5.自带jdk卸载完毕后 ,新建一个存放jdk的文件夹,然后下载1.8及以上版本的jdk

下载链接(1.8):https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html
选择linux版本64位的jdk下载

解压安装jdk,并配置jdk环境

修改配置文件   vi  /etc/profile

 

 

6.输入source /etc/profile 重新加载配置文件

7.输入java -version 查看jdk安装情况

 

 

二:安装zookeeper

1.下载zookeeper

下载链接:https://webscripts.softpedia.com/script/Development-Scripts-js/Complete-applications/Apache-Hadoop-ZooKeeper-59851.html

  1. 新建一个存放zookeeper的文件夹 使用tar -zxvf+压缩文件名  进行解压安装
  2. 进入zookeeper的conf目录下 复制 zoo_sample.cfg 文件 命名为zoo.cfg
  3. 查看zoo.cfg文件的 dataDir  和dataLogDir 的路径配置,并在自己的目录下检查是否存在这两个文件夹,若不存在则创建

 

  1. 进入zookeeper的bin目录启动zookeeper

./zkServer.sh start  (启动zookeeper)

./zkServer.sh stop  (停止zookeeper)

./zkServer.sh restart(重启zookeeper)
./zkServer.sh status (查看zookeeper状态)

6.如果是集群模式 ,则需要在每台机器上都配置zoo.cfg文件,并增加配置    server.A=B:C:D 配置
        A:其中 A 是一个数字,表示这个是服务器的编号;

B:是这个服务器的 ip 地址;

C:Leader选举的端口;

D:Zookeeper服务器之间的通信端口。

 

  1. dataDir指定的路径下创建myid文件,在文件中写上A的数字编号就可以(每台机器都配置)
    例如:
  2. 配置环境变量(不是必须步骤,但是如果不配置,每次启动zk需要在bin目录下)

#set zookeeper environment

export ZK_HOME=/usr/local/software/zookeeper-3.3.6

export PATH=$PATH:$ZK_HOME/bin
然后 source  /etc/profile  重启配置文件,启动服务

三:安装MySql

  1. 下载路径https://dev.mysql.com/downloads/mysql/
    或者 wget http://dev.mysql.com/get/Downloads/MySQL-5.7/mysql-5.7.17-linux-glibc2.5-x86_64.tar.gz

或者

wget http://dev.mysql.com/get/Downloads/MySQL-5.6/MySQL-5.6.22-1.el6.i686.rpm-bundle.tar

 

我这里用的第三种

  1. 安装服务   
    rpm -ivh MySQL-server-5.6.22-1.el6.i686.rpm
    (如果出现报错,根据报错安装依赖,注意安装提示,随机生成的密码保存在如下文件中)

 

  1. 安装client
    rpm -ivh MySQL-client-xxxxxxxxx
  2. 执行 service  mysql status 查看mysql进程,出现MySql is not running则服务未启动
  3. 启动mysql   --service  mysql start
  4. 使用root账号登录mysql  # mysql -uroot   -p
  5. 修改root用户密码SET PASSWORD = PASSWORD('123456');

8.系统启动时自动启动mysql服务

加入到系统服务:

chkconfig --add mysql

自动启动:

chkconfig mysql on

查询列表:

Chkconfig

  1. 开启远程访问并打开防火墙3306端口
    四:安装kafka
  1. 下载路径 https://kafka.apache.org/downloads
  2. 创建kafka文件夹,并解压下载文件
  3. 进入kafka的config目录下,修改server.properties

# broker的全局唯一编号,不能重复
broker.id=0
# 监听
listeners=PLAINTEXT://:9092
# 日志目录log.dirs=/home/hadoop/kafka-logs
# 配置zookeeper的连接(如果不是本机,需要该为ip或主机名)
zookeeper.connect=localhost:2181

  1. jps查看zookeeper是否启动(没启动的话需要启动zookeeper)

 

5.启动kafka
/root/xfk/kafka/kafka_2.11-1.0.0/bin/kafka-server-start.sh -daemon  /root/xfk/kafka/kafka_2.11-1.0.0/config/server.properties

不加 -daemon参数,界面会进入一个阻塞状态(建议加上)

输入jps查看进程,进程已启动

6.创建topic
kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
 查看topic信息
kafka-topics.sh --list --zookeeper localhost:2181

启动生产者
kafka-console-producer.sh --broker-list localhost:9092 --topic test
启动消费者
kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning
在生产者控制台生产消息,看消费端是否可以正常消费到
7.配置环境变量
# Kafka Environment Variable 
export KAFKA_HOME=/root/xfk/kafka/kafka_2.11-1.0.0
export PATH=$PATH:$KAFKA_HOME/bin
五:安装ksql

  1. 下载安装ksql
    wget https://packages.confluent.io/archive/5.0/confluent-oss-5.0.0-2.11.tar.gz
    tar zxvf confluent-oss-5.0.0-2.11.tar.gz -C /opt/programs/confluent_5.0.0
  2. 启动zk和kafka
  3. 启动ksql
    bin/ksql-server-start -daemon etc/ksql/ksql-server.properties
  4. 连接ksql
    bin/ksql http://localhost:8088
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值