由于论坛上发不了帖子,只能在博客中提问了,还请见谅。
目前正在用ELK来做日志收集系统,
从其他地方了解到logstash可以处理每秒几万条的日志。
但是我的环境中,每台logstash服务器每秒只能处理将近2000条日志,如果加上filter的话,更少。
日志量多的时候大部分都积压在redis中,logstash侧也没用任何日志可以看。
cpu和mem都很充足,io也没用多少,不知道问题出在哪?有没有大神帮忙分析分析?
部署图如下:用了redis做缓存,不知道这个有什么用?感觉反而影响了性能。
博主正在使用ELK搭建日志收集系统,发现每台Logstash服务器每秒只能处理大约2000条日志,远低于预期的几万条。即使CPU、内存和I/O资源充足,仍有大量日志积压在Redis中。请求帮助分析可能的原因。
4万+

被折叠的 条评论
为什么被折叠?



