
ELK
ELK
生产队队长
各位IT爱好者,努力学起来!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Logstash配置stdout无法输出日志问题解决。
ELK原创 2023-03-11 10:55:33 · 1315 阅读 · 2 评论 -
logstash详细用法,各种参数都有
ELK转载 2023-03-07 11:15:40 · 251 阅读 · 0 评论 -
LogStash::Codecs::IdentityMapCodec::IdentityMapUpperLimitException问题解决
ELK原创 2023-02-21 09:49:03 · 217 阅读 · 0 评论 -
Logstash启动报错:Too many open files
ELK原创 2023-02-17 17:45:02 · 355 阅读 · 0 评论 -
ES集群健康状态返回的各个字段含义解析
ES原创 2023-01-31 11:37:29 · 256 阅读 · 0 评论 -
ElasticSearch 查询排序
elasticsearch转载 2022-08-05 15:20:50 · 450 阅读 · 0 评论 -
使用elasticdump对ES数据进行导入导出操作
ES导入导出转载 2022-06-01 10:40:53 · 1503 阅读 · 2 评论 -
logstash重复消费kafka的问题解决
https://www.jianshu.com/p/6492b762c171 重复消费的原因分析https://www.jianshu.com/p/35e57b10cb33 解决办法转载 2022-05-25 18:33:51 · 1071 阅读 · 0 评论 -
logstash对接kafka,推送ES库,根据数据时间生成ES索引
情况:这边对接了kafka,但是,kafka里面数据是乱序的,比如,5月20号,可能里面包含了,17号,18号,19号的数据,而且,队列里数据,是只能向前消费,无法回到之前的offset进行消费。于是,以前按照系统当前时间,创建索引的方式,不能使用了。index => "ods_harmful_%{+YYYY-MM-dd}"修改:注意字段对应关系: mutate{ split => ["message","^"] add_field => {原创 2022-05-20 14:47:10 · 1417 阅读 · 0 评论 -
Logstash 时间格式化
情景:我这边对接kafka,通过^符号来进行字符串分割其中, 有个时间字段,但是,时间是14位的数字字符串类似:20220517162218于是,我这边需要转换成date类型的,才能在页面上按时间查询转换成:2022-05-17 14:51:23代码: mutate{ split => ["message","^"] add_field => { "my_time" => "%{[message][8]}" } } da原创 2022-05-17 16:26:21 · 2211 阅读 · 0 评论 -
如何让kafka从 头 或者 尾 消费消息?
首先说明下2个重要的参数:consumer.group.id (消费者组)auto.offset.reset :earliest当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费latest当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据nonetopic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常注意转载 2022-05-13 15:13:30 · 3280 阅读 · 0 评论 -
Logstash 对接 Kafka,在写入ES的时候,报错:Will Retry with exponential backoff {:code=>400
[2022-05-12T15:09:13,065][ERROR][logstash.outputs.elasticsearch][unreasonable_use_kafka][d2128c0736a801fa462a2aea862c6bbf3923c3cce59e00fc70fa6e234d9dac33] Encountered a retryable error. Will Retry with exponential backoff {:code=>400, :url=>"http://原创 2022-05-12 17:31:08 · 2151 阅读 · 0 评论 -
logstash input 接入多个kafka 数据源 实现方式及注意点
logstash 版本:7.12.0conf文件内容如下:input { kafka{ bootstrap_servers =>["1.1.1.1:9092,2.2.2.2:9092,3.3.3.3:9092"] group_id => "a_topic_group" auto_offset_reset => "latest" consumer_threads => 5 decorate_events => true topics => [原创 2022-05-12 09:55:29 · 2016 阅读 · 2 评论 -
logstash对接kafka数据源
https://blog.youkuaiyun.com/weixin_39372979/article/details/105551335转载 2022-04-22 16:49:47 · 626 阅读 · 0 评论 -
elasticsearch.yml 配置详解
https://blog.youkuaiyun.com/qq_27512271/article/details/89647017 推荐https://www.cnblogs.com/zlslch/p/6419948.html转载 2022-04-05 18:32:24 · 1621 阅读 · 0 评论 -
尚硅谷-ElasticSearch教程笔记
https://blog.youkuaiyun.com/u011863024/article/details/115721328转载 2022-04-05 16:04:54 · 1325 阅读 · 0 评论 -
ELK的相关问题汇总
https://blog.51cto.com/qiangsh/2342821?source=dra转载 2022-03-13 15:32:33 · 323 阅读 · 0 评论 -
ES&Kibana的安装(Windows10环境)
Kibana安装:https://www.jianshu.com/p/400777287de6ES安装https://www.cnblogs.com/guanzhuang/p/11230295.html转载 2022-03-04 16:10:59 · 407 阅读 · 0 评论 -
Logstash pipeline.yml配置调优
https://blog.youkuaiyun.com/it_lihongmin/article/details/79728812转载 2022-03-01 10:03:16 · 890 阅读 · 0 评论 -
Logstash向ES刷数据报错:LogStash::Outputs::ElasticSearch::HttpClient::Pool::HostUnreachableError
[2022-02-22T00:09:22,656][WARN ][logstash.outputs.elasticsearch][ods_host][dc07d40532915e5f6e1679ca41a6bc431b236880d34d44f80fc563f5e4aa2692] Marking url as dead. Last error: [LogStash::Outputs::ElasticSearch::HttpClient::Pool::HostUnreachableError] Elastic原创 2022-02-22 17:16:06 · 7716 阅读 · 0 评论 -
logstash if 条件判断语句
https://blog.youkuaiyun.com/Q748893892/article/details/106050665转载 2022-02-21 15:05:37 · 2961 阅读 · 0 评论 -
logstash使用pipelines.yml启动
https://blog.youkuaiyun.com/UbuntuTouch/article/details/100995868转载 2022-02-16 17:07:47 · 2680 阅读 · 0 评论 -
logstash存在的弊端总结
1、Rubydebug不能输出到logstash-plain.log,自身的log不够详细。2、配置文件没有类似Struts的import功能,导致,不同的源文件刷入要写对应的conf配置,并单独起一个logstash,如果强制写在一个conf里面,耦合度太高,查阅不方便。3、刷过的源文件,不能进行标记或者转移,方便后期清理数据。4、没有开放对外的个性化功能接口,给开发人员自定义开发自己的功能。5、多个logstash同时运行在一台服务器上,刷取多个数据源的时候,会出现乱数据的情况,字段值错位。比如原创 2022-02-14 09:33:29 · 1052 阅读 · 0 评论 -
logstash配置sincedb目录位置
https://blog.youkuaiyun.com/qq_39669058/article/details/86480578删除就能重新读取日志文件了,也可以指定指定sincedb文件的目录使用,重要该路径必须指定到文件不能指定到文件的目录sincedb_path => “/home/logs/index.txt”...转载 2022-02-12 12:21:10 · 743 阅读 · 0 评论 -
logstash 打开文件数 too many open files 解决方法
https://blog.youkuaiyun.com/fdipzone/article/details/34588803转载 2022-02-10 18:24:44 · 378 阅读 · 0 评论 -
logstash max_open_files 报错解决
Reached open files limit: 4095, set by the 'max_open_files' option or default, files yet to open: 30608这个错误是,logstash的file input插件配置的 max_open_files 默认值太小是4095.所以,要调大。修改配置:max_open_files => 65535重启logstash,即可解决这个错误...原创 2022-02-10 17:44:41 · 966 阅读 · 0 评论 -
Logstash启动报错:401的问题解决
[2022-02-09T16:22:36,652][WARN ][logstash.outputs.elasticsearch][main] Attempted to resurrect connection to dead ES instance, but got an error. {:url=>"http://11.11.12.12:9211/", :error_type=>LogStash::Outputs::ElasticSearch::HttpClient::Pool::BadRes原创 2022-02-09 17:11:52 · 3543 阅读 · 7 评论 -
Logstash启动报错you must change the “path.data“ setting.问题
Logstash could not be started because there is already another instance using the configured data directory. If you wish to run multiple instances, you must change the "path.data" setting.我本地复现了这个报错:就是同一个logstash,启动了两次,导致了这个报错。网友的解决办法:https://blog.c.原创 2022-02-09 17:05:42 · 1008 阅读 · 0 评论