中小型互联网分布式项目这套架构足以。

大型互联网分布式项目

针对大型互联网分布式项目来说,如果应用服务过多吗,成百上前的话,每台服务器上又有很多个应用实例,这样就可能存在很多个filebeat,这样很多个日志收集器都把收集到的日志全部转发到logstash上,filebeat增多,logstash自然也得增多,我们知道logstash是用来对日志进行filter过滤的,所以很消耗内存,这样会导致很多日志堆积再logstash,可能导致down机并且丢失,所以这时候我们可能就需要借助kafka来做一个日志数据缓冲,将filebeat收集到的日志先转发到kafka中(filebeat天生就自带可以转发到kafka的配置),然后logstash再不慌不忙的去消费kafka里面的日志消息就行了,最后转存到ES中。这样就做到了针对大型互联网分布式项目的一个日志收集高可用架构。
针对大型互联网分布式项目,当应用服务数量庞大时,传统的日志收集方式可能导致logstash内存消耗过大和日志堆积。为解决此问题,可以引入kafka作为日志缓冲,filebeat将日志发送到kafka,logstash再从kafka消费日志,最后存入ES,确保系统的高可用性和稳定性。
302

被折叠的 条评论
为什么被折叠?



