日志收集分析平台 - 原理篇

此平台是一个基于kafka集群的日志收集平台,可以分为三个部分

第一部分

5台centos7的机器搭建一个web集群,前面使用了两台机器做nginx负载均衡,两台nginx反向代理机器之间采用了keepalive双VIP做高可用,后面使用3台机器搭建web静态页面用于测试。

第二部分

3台centos7机器搭建kafka集群,上面部署了zookeeper,因为现在使用的是kafka2.12版本,还没有到kafka3。

第三部分

通过部署在nginx web服务器上的filebeat去收集日志,收集到日志后利用pykafka模块写脚本去消费日志,并进行数据清洗,将清洗后的数据写入MySQL。

第一部分知识点

1、DNS通过域名解析到三个ip

1、www.sc.com可以解析成多个ip地址,一般来说会轮询方式去解析成各个ip;但是如果其中一个服务器挂了,DNS不会立即将这个ip地址去掉,还是会解析成挂掉的ip,可能会造成访问失败,虽然客户端有重试,但还是会影响用户体验

2、测试的时候,可以直接访问nginx web,也可以绑定域名访问

3、DNS做负载均衡会有很多局限,扩容和缩容都不方便

2

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值