Centos7 搭建kafka集群(3.0版本)

1、前置条件

(1)、kafka 3.0官网提示必须要Java 8+的支持,因此这里本文安装Java 9,教程自行查找

(2)、kafka2.8之前强依赖zookeeper,2.8之后逐渐开始使用Kraft模式取代zookeeper,3.0依然兼容保留了zookeeper兼容使用,该教程依然采用zookeeper进行搭建,故需要先搭建下zookeeper集群,zookeeper集群搭建参考:

Centos7 搭建zookeeper集群

2、节点规划

zookeeper使用四个节点:node01~04

kafka使用:node01~03

3、下载kafka

Kafka Downloads,该文章使用的版本为3.0

4、集群搭建

# 解压压缩包
tar -zxvf kafka_2.13-3.0.0.tgz
# 把解压文件夹移动到/usr/local/下
mv kafka_2.13-3.0.0 /usr/local/
# 进入kafka配置目录
cd /usr/local/kafka_2.13-3.0.0/conf
# 修改server.properties配置

broker.id=0 # node01\node02\node03 分别设置为0,1,2
# 打开监听配置,为了创建topic时能监听到 node01,node02,node03都要修改
listeners=PLAINTEXT://node01:9092 
log.dirs=/var/kafka-logs # 修改日志保存路径
# zookeeper 使用node02,node03,node04
zookeeper.connect=node02:2181,node03:2181,node04:2181/kafka

# 添加环境变量
vi /etc/profile
# 新增环境变量配置
export KAFKA_HOME=/usr/local/kafka_2.13-3.0.0
export PATH=$PATH:$KAFKA_HOME/bin
# 使得环境变量立刻生效
source /etc/profile

同步node01配置好的文件到其他节点

# 拷贝kafka安装文件目录到node02,node03(当前所在目录/usr/local)
scp -r ./kafka_2.13-3.0.0 root@node02:`pwd`
scp -r ./kafka_2.13-3.0.0 root@node03:`pwd`

# 拷贝设置好的环境变量文件到node2、node3
scp -r /etc/profile root@node02:/etc/
scp -r /etc/profile root@node03:/etc/

# 分别修改node02、node03上kafka的配置文件server.properties
vi server.properties

broker.id=1 # node02
broker.id=2 # node03

# 分别使得node02,node03环境变量生效
source /etc/profile


# 如果开启了防火墙,为保证服务启动能通,分别开放node01~02的2181端口号,没开启略过,我这里没开启
firewall-cmd --zone=public --add-port=2181/tcp --permanent
firewall-cmd --reload

启动服务

# 分别启动node02~04节点上的zookeeper服务
zkServer.sh start
# 查看下状态确保服务启动正常
zkServer.sh status

# 启动kafka服务(node01,node02,node03)
kafka-server-start.sh ./server.properties
kafka-server-start.sh ./server.properties & # 后台启动

# 停止kafka服务的命令
kafka-server-stop.sh

5、kafaka集群简单使用

# 命令行创建topic,并制定分区为2,以及分区的副本数2(确保server。properties中listens监听的端口打开)
kafka-topics.sh --create --bootstrap-server node02:9092,node03:9092 --replication-factor 2 --partitions 2 --topic xxoo

# 查看topic列表
kafka-topics.sh --bootstrap-server node01:9092,node02:9092 --list

# 查看具体topic描述信息
kafka-topics.sh --bootstrap-server node01:9092,node02:9092  --describe --topic xxoo

# 新开窗口,在node03上启动consumer组
kafka-console-consumer.sh --topic xxoo --group ac --from-beginning --bootstrap-server node03:9092

# 新开窗口,在node01,node02上启动producer组(一个生产者生产的消息只能被一个topic下的一个consumer消费)
kafka-console-producer.sh --topic xxoo --bootstrap-server node01:9092
kafka-console-producer.sh --topic xxoo --bootstrap-server node02:9092

# 查看组详情
kafka-consumer-groups.sh --bootstrap-server node01:9092 --all-groups --describe
# 查看组列表
kafka-consumer-groups.sh --bootstrap-server node01:9092 --all-groups --list
# 删除消费组
kafka-consumer-groups.sh --bootstrap-server node01:9092 --delete --group ac

6、安装kafka管理工具

(1)、下载EFAK
(2)、安装

# 创建安装文件,这里放在kafka安装目录下,目录可自定义
mkdir /usr/local/kafka_2.13-3.0.0/efak
# 创建数据库存放目录
mkdir /usr/local/kafka_2.13-3.0.0/efak/db
# 解压到安装目录
tar -zxvf efak-web-2.0.8-bin.tar.gz -C /usr/local/kafka_2.13-3.0.0/efak/
# 设置环境变量
vi /etc/profile
# 新增环境变量
export KE_HOME=/usr/local/kafka_2.13-3.0.0/efak/efak-web-2.0.8
export PATH=$PATH:$KE_HOME/bin

# 使得环境变量生效
source /etc/profile

 修改efak配置文件,找到conf目录的system-config.properties文件
注意:中文标注点为需要修改的点

######################################
# multi zookeeper & kafka cluster list
# Settings prefixed with 'kafka.eagle.' will be deprecated, use 'efak.' instead
######################################
# 设置集群别名,这里只有一个集群使用一个即可
efak.zk.cluster.alias=cluster1
# 设置zookeeper集群地址,注意要和kafka配置文件中集群配置保持一致
cluster1.zk.list=10.118.241.55:2181,10.118.241.134:2181,10.118.241.85:2181/kafka
#cluster2.zk.list=xdn10:2181,xdn11:2181,xdn12:2181

######################################
# zookeeper enable acl
######################################
cluster1.zk.acl.enable=false
cluster1.zk.acl.schema=digest
cluster1.zk.acl.username=test
cluster1.zk.acl.password=test123

######################################
# broker size online list
######################################
cluster1.efak.broker.size=20

######################################
# zk client thread limit
######################################
kafka.zk.limit.size=32

######################################
# EFAK webui port
######################################
efak.webui.port=8048

######################################
# kafka jmx acl and ssl authenticate
######################################
cluster1.efak.jmx.acl=false
cluster1.efak.jmx.user=keadmin
cluster1.efak.jmx.password=keadmin123
cluster1.efak.jmx.ssl=false
cluster1.efak.jmx.truststore.location=/data/ssl/certificates/kafka.truststore
cluster1.efak.jmx.truststore.password=ke123456

######################################
# kafka offset storage
######################################
cluster1.efak.offset.storage=kafka
#cluster2.efak.offset.storage=zk

######################################
# kafka jmx uri
######################################
cluster1.efak.jmx.uri=service:jmx:rmi:///jndi/rmi://%s/jmxrmi


######################################
# kafka metrics, 15 days by default
######################################
efak.metrics.charts=true
efak.metrics.retain=15

######################################
# kafka sql topic records max
######################################
efak.sql.topic.records.max=5000
efak.sql.topic.preview.records.max=10

######################################
# delete kafka topic token
######################################
efak.topic.token=keadmin

######################################
# kafka sasl authenticate
######################################
cluster1.efak.sasl.enable=false
cluster1.efak.sasl.protocol=SASL_PLAINTEXT
cluster1.efak.sasl.mechanism=SCRAM-SHA-256
cluster1.efak.sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required username="kafka" password="kafka-eagle";
cluster1.efak.sasl.client.id=
cluster1.efak.blacklist.topics=
cluster1.efak.sasl.cgroup.enable=false
cluster1.efak.sasl.cgroup.topics=

######################################
# kafka sqlite jdbc driver address
######################################
efak.driver=org.sqlite.JDBC
# 配置sqlite数据库存放目录,目录必须存在
efak.url=jdbc:sqlite:/usr/local/kafka_2.13-3.0.0/efak/db/ke.db
efak.username=root
efak.password=123456

######################################
# kafka mysql jdbc driver address
######################################
#efak.driver=com.mysql.cj.jdbc.Driver
#efak.url=jdbc:mysql://127.0.0.1:3306/ke?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNull
#efak.username=root
#efak.password=123456

修改完成保存退出

# 进入启动命令文件夹
cd /usr/local/kafka_2.13-3.0.0/efak/efak-web-2.0.8/bin
# 授权
chmod 777 ke.sh
# 启动 服务
ke.sh start
# 重启
ke.sh restart
# 停止服务
ke.sh stop

控制台打印启动成功信息

浏览器访问显示集群信息(账户密码:admin /123456)

如有不对之处,欢迎指正

<think>嗯,用户想了解Excel中的VLOOKUP函数的用法和参数含义。首先,我需要回忆一下VLOOKUP的基本结构。VLOOKUP是垂直查找函数,用于在表格的首列查找指定的值,然后返回该行中指定列的数据。它的四个参数分别是查找值、表格范围、列索引号和匹配模式。 接下来,我得确认每个参数的具体作用。第一个参数是lookup_value,也就是用户要查找的值,比如产品ID或者姓名。第二个参数是table_array,即查找的范围,这里要注意的是,查找值必须位于这个范围的第一列,否则函数无法正确工作。第三个参数是col_index_num,也就是用户想要返回的数据在表格范围中的第几列,这个列数是从表格范围的第一列开始算起的,不是整个工作表的列。第四个参数是range_lookup,决定是精确匹配还是近似匹配,通常用FALSE或0来指定精确匹配,避免错误。 然后,用户可能需要一个具体的例子来理解如何使用。比如,假设有一个产品价格表,用户想根据产品ID查找对应的价格。这时候,VLOOKUP就可以在ID列查找,然后返回价格列的数据。同时,要提醒用户注意表格范围最好使用绝对引用,比如$A$2:$C$100,这样在拖动公式时范围不会变化。 可能遇到的问题也需要考虑。比如,如果查找值不在表格的第一列,或者列索引号超过了表格的列数,函数会返回错误。此外,数据格式不一致也可能导致问题,比如查找值是数字,而表格中是文本格式的数字,这时候需要统一格式。还有,当出现#N/A错误时,可能是查找值不存在,或者匹配模式设置不正确,需要检查参数是否正确。 用户可能还会问到如何避免常见的错误,比如部分数据匹配出错的情况。这时候需要检查是否有多余的空格,或者数据格式不一致,或者表格范围没有锁定导致拖动时偏移。此外,XLOOKUP作为VLOOKUP的升级版,可能在某些情况下更方便,比如可以向左查找或者返回多列数据,这也是可以提及的内容。 最后,整理步骤,从基础语法到参数说明,再到具体案例,逐步引导用户理解如何使用VLOOKUP函数。同时,提供常见错误和解决方法,帮助用户在实际应用中避免问题。如果有必要,还可以比较VLOOKUP和其他查找函数的区别,比如HLOOKUP或XLOOKUP,但根据用户的问题,主要集中在VLOOKUP本身即可。</think>### Excel VLOOKUP函数详解 #### 一、基础语法与参数说明 VLOOKUP函数的语法为: $$=VLOOKUP(lookup\_value, table\_array, col\_index\_num, [range\_lookup])$$ 包含4个参数: 1. **lookup_value**(必填):要查找的值(如单元格引用或具体值) 2. **table_array**(必填):包含数据的表格范围(必须包含查找列和返回列) 3. **col_index_num**(必填):返回值所在列的序号(从table_array第一列开始计数) 4. **range_lookup**(可选):匹配类型 - `TRUE`/`1`:近似匹配(默认值,需数据升序排列) - `FALSE`/`0`:精确匹配(常用选项) [^1][^2] #### 二、使用步骤演示(工资表查询案例) 假设需要根据员工编号查询工资: 1. 建立查询单元格(如`B12`) 2. 输入公式: ```excel =VLOOKUP(A12, $A$2:$D$100, 4, 0) ``` - `A12`:待查询的员工编号 - `$A$2:$D$100`:锁定数据区域(绝对引用) - `4`:返回第4列(工资列) - `0`:精确匹配 [^2][^3] #### 三、常见错误与解决方法 | 错误现象 | 原因 | 解决方案 | |---------|------|---------| | #N/A | 查找值不存在 | 检查数据源或改用`IFERROR`容错 | | #REF! | 列序号超出范围 | 确认col_index_num ≤ 表格列数 | | 部分匹配失败 | 数据格式不一致 | 统一数值/文本格式 | | 结果错位 | 表格未锁定 | 使用`$`符号固定区域引用 | [^3][^4] #### 四、进阶技巧 1. **多条件查询**: 使用辅助列合并多个条件字段 ```excel =VLOOKUP(A2&B2, $D$2:$F$100, 3, 0) ``` 2. **通配符匹配**: `"*"`匹配任意字符,`"?"`匹配单个字符 ```excel =VLOOKUP("张*", $A$2:$C$100, 3, 0) ``` 3. **跨表查询**: 引用其他工作表数据 ```excel =VLOOKUP(A2, Sheet2!$A$2:$D$100, 4, 0) ``` [^1][^4]
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值