背景
线上kafka集群的topic监控采用的是开源的kafka exporter项目来完成的,近期某个kafka集群由于某个topic写入和消费量很大导致集群中的某两个集群io负载打满,kafka exporter 采集信息也因此超时失败,如果指定某个topic采集则不会出现问题,所以猜测是因为一次批量获取所有的topic元数据信息时,遇到这种极端现象就会比较慢,打算查看下采集的实现逻辑来看下是否有优化的空间
kafka exporter项目地址
部署时发现依赖go 1.16及以上版本,而本地的环境是go 1.13,所以需要先升级
1、下载安装包
go1.16.3.darwin-amd64.tar.gz
2、解压到/usr/local/下
3、修改环境变量
~/.bash_profile 修改PATH中go的路径为最新版本的
# Setting PATH for Python 3.8
# The original version is saved in .bash_profile.pysave
PATH="/Library/Frameworks/Python.framework/Versions/3.8/bin:${PATH}