Linux下ELK6.2.3日志分析平台搭建

官网下载地址:https://www.elastic.co/downloads

ELK是Elasticsearch、Logstash、Kibana的简称,这三者是核心套件,但并非全部。

Elasticsearch是实时全文搜索和分析引擎,提供搜集、分析、存储数据三大功能;是一套开放REST和JAVA API等结构提供高效搜索功能,可扩展的分布式系统。它构建于Apache Lucene搜索引擎库之上。

Logstash是一个用来搜集、分析、过滤日志的工具。它支持几乎任何类型的日志,包括系统日志、错误日志和自定义应用程序日志。它可以从许多来源接收日志,这些来源包括 syslog、消息传递(例如 RabbitMQ)和JMX,它能够以多种方式输出数据,包括电子邮件、websockets和Elasticsearch。

Kibana是一个基于Web的图形界面,用于搜索、分析和可视化存储在 Elasticsearch指标中的日志数据。它利用Elasticsearch的REST接口来检索数据,不仅允许用户创建他们自己的数据的定制仪表板视图,还允许他们以特殊的方式查询和过滤数据

1、环境准备

操作系统:Redhat6.5、JDK1.8
IP地址: 10.118.203.205
安装组件:elasticsearch、logstash、Kibana

1、注意:6.2.3版本要求java版本一定为1.8,安装方法不详述

[root@vmax205 home]# java -version
java version "1.8.0_11"
Java(TM) SE Runtime Environment (build 1.8.0_11-b12)
Java HotSpot(TM) 64-Bit Server VM (build 25.11-b03, mixed mode)

2、系统参数配置

[root@vmax205 home]# cat /etc/security/limits.conf
......
* soft nofile 65536
* hard nofile 131072
* soft nproc 65536
* hard nproc 65536
[root@vmax205 home]# cat /etc/sysctl.conf
......
vm.max_map_count=655360

2、Elasticsearch搭建

1、下载安装包:elasticsearch-6.2.3.tar.gz

2、解压并修改配置文件config/elasticsearch.yml(本次安装为单机版配置)

cluster.name: elsearch
node.name: vmax205
path.data: /data/es/data
path.logs: /home/ELK/elasticsearch-6.2.3/logs
network.host: 10.118.203.205
http.port: 9200
discovery.zen.ping.unicast.hosts: ["vmax205"]
discovery.zen.minimum_master_nodes: 1
gateway.recover_after_nodes: 1
bootstrap.system_call_filter: false

注意:bootstrap.system_call_filter为新增,其他的均可取消注释修改,修改时冒号和值之间要预留一个空格。

3、修改config/jvm.options配置文件

-Xms8g
-Xmx8g

4、创建用户elsearch和设置密码123456

[root@vmax205 home]# useradd elsearch
[root@vmax205 home]# passwd elsearch
Changing password for user el.search
New password: 
BAD PASSWORD: it is too simplistic/systematic
BAD PASSWORD: is too simple
Retype new password: 
passwd: all authentication tokens updated successfully.

5、将elasticsearch-6.2.3设置为elsearch用户权限

[root@vmax205 ELK]# chown -R elsearch:elsearch elasticsearch-6.2.3
[root@vmax205 ELK]# ll
total 504848
drwxr-xr-x.  8 elsearch elsearch      4096 Apr 14 15:55 elasticsearch-6.2.3

6、以后台方式启动

[elsearch@vmax205 elasticsearch-6.2.3]$ ./bin/elasticsearch -d

7、验证启动是否成功,进程是否存在,接口是否能够调用。

[elsearch@vmax205 elasticsearch-6.2.3]$ jps
84955 Jps
45775 Elasticsearch
[elsearch@vmax205 elasticsearch-6.2.3]$ curl 10.118.203.205:9200
{
  "name" : "vmax205",
  "cluster_name" : "elsearch",
  "cluster_uuid" : "9LxWf7PZQt6TnIWR-Tw2sw",
  "version" : {
    "number" : "6.2.3",
    "build_hash" : "c59ff00",
    "build_date" : "2018-03-13T10:06:29.741383Z",
    "build_snapshot" : false,
    "lucene_version" : "7.2.1",
    "minimum_wire_compatibility_version" : "5.6.0",
    "minimum_index_compatibility_version" : "5.0.0"
  },

3、Kibana搭建

1、下载安装包:kibana-6.2.3-linux-x86_64.tar.gz

2、解压并修改配置文件config/kibana.yml

server.port: 5601
server.host: "10.118.203.205"
elasticsearch.url: "http://10.118.203.205:9200"
kibana.index: ".kibana"
elasticsearch.username: "elsearch"
elasticsearch.password: "123456"

3、以后台方式启动

[elsearch@vmax205 kibana-6.2.3-linux-x86_64]$ nohup ./bin/kibana &

4、查看运行状态,浏览器查看 http://10.118.203.205:5601

4、Logstash搭建

1、下载安装包:logstash-6.2.3.tar.gz

2、编写配置文件rule.conf

input {
      file {
            path => "/var/log/messages"
    }
}
filter {
     grok{
            match => { "message" => "%{IP:client} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:duration}" }
    }
}
output {
     elasticsearch {
            hosts=> "10.118.203.205"
            index => "logstash-%{+YYYY.MM.dd}"
    }
}

3、以后台方式启动

[elsearch@vmax205 logstash-6.2.3]$ nohup ./bin/logstash -f ./config/rule.conf &

4、观察日志没有报错,查看有无索引写入elsearch,查看kibana

[elsearch@vmax205 elasticsearch-6.2.3]$ curl -XGET '10.118.203.205:9200/_cat/indices?v&pretty'
health status index               uuid                   pri rep docs.count docs.deleted store.size pri.store.size
green  open   .kibana             407GADmaQkiQ4OH8FoODIg   1   0          2            1     10.8kb         10.8kb
yellow open   logstash-2018.04.16 v-WDOjlzRjSMciB_FM9RkQ   5   1       2653            0    882.2kb        882.2kb

5、问题记录

1)、Redhat6.5默认JDK版本为1.7,需要将JDK升级到1.8

解决方法:JDK官网中下载jdk-8u11-linux-x64.tar.gz,然后解压拷贝至/usr/java目录下,执行vi /etc/profile,修改环境变量,在文件内容里修改如下:

export JAVA_HOME=/usr/java/jdk1.8.0_11

export JRE_HOME=$JAVA_HOME/jre

export CLASSPATH=$JAVA_HOME/lib:$CLASSPATH

export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

保存后,执行source /etc/profile,再查询java版本信息是否显示已升级。 

2)、elasticsearch启动时报错:Exception in thread "main" 2017-11-10 06:29:49,106 main ERROR No log4j2 configuration file found. Using default configuration: logging only errors to the console. Set system property 'log4j2.debug' to show Log4j2 internal initialization logging.ElasticsearchParseException[malformed, expected settings to start with 'object', instead was [VALUE_STRING]]

解决方法:elasticsearch.yml中的配置项的格式有问题,尽量保持冒号前面没空格,后面一个空格,不要用tab键。 

3)、elasticsearch启动报错:ava.lang.UnsupportedOperationException: seccomp unavailable: requires kernel 3.5+ with CONFIG_SECCOMP and CONFIG_SECCOMP_FILTER compiled in 。。。。。。

[2018-04-16T10:25:26,293][ERROR][o.e.b.Bootstrap          ] [vmax205] node validation exception

[1] bootstrap checks failed

[1]: system call filters failed to install; check the logs and fix your configuration or disable system call filters at your own risk

解决方法:可以警告可以忽略不管,需要在配置文件增加elasticearch.yml增加配置bootstrap.system_call_filter: false。 

4)、kibana启动报错不能执行node命令。

解决方法:下载node-v6.12.2-linux-x64.tar.gz,解压,修改环境变量/etc/profile,增加export NODE_HOME=/home/node

export PATH=$NODE_HOME/bin:$PATH

export NODE_PATH=$NODE_HOME/lib/node_modules

再执行source /etc/profile, 输入命令 node -v 和npm -v,能正常查询版本即可 

5)、启动kibana,后台一直报错: 

解决方法:kibana配置文件为配置elasearch的用户名和密码导致。 

6、参考文献

https://my.oschina.net/haha256/blog,里面还有关于elasticsearch多集群部署。

开源实时日志分析ELK平台能够完美的解决我们上述的问题,ELK由ElasticSearch、Logstash和Kiabana三个开源工具组成。 官方网站:https://www.elastic.co/products Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。 Logstash是一个完全开源的工具,他可以对你的日志进行收集、过滤,并将其存储供以后使用(如,搜索)。 Kibana 也是一个开源和免费的工具,它Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助您汇总、分析和搜索重要数据日志。 ELK下载:https://www.elastic.co/downloads/ ELK工作原理: ElasticSearch 配置ElasticSearch: 1 2 unzip elasticsearch-6.2.4.zip cd elasticsearch-6.2.4 然后编辑ES的配置文件: 1 vi config/elasticsearch.yml 修改以下配置项: 1 2 3 4 5 6 7 cluster.name=es_cluster node.name=node0 path.data=/tmp/elasticsearch/data path.logs=/tmp/elasticsearch/logs #当前hostname或IP,我这里是node1 network.host=node1 network.port=9200 其他的选项保持默认,然后启动ES: 1 nohup sh elasticsearch > nohup.log & 注意: 1.需要添加用户elk,ES不能以root用户进行启动 2.可能出现的错误: max file descriptors [4096] for elasticsearch process likely too low, increase to at least [65536] 1 2 3 vi /etc/security/limits.conf elk soft nofile 819200 elk hard nofile 819200 max number of threads [1024] for user [work] likely too low, increase to at least [2048] 1 2 3 4 vi /etc/security/limits.d/90-nproc.conf * soft nproc 1024 #修改为: * soft nproc 2048 max virtual memory areas vm.max_map_count [65530] likely too low, increase to at least [262144] 1 2 3 4 5 vi /etc/sysctl.conf #增加改行配置: vm.max_map_count=655360 #保存退出后,执行: sysctl -p 另外再配置ES的时候,threadpool.bulk.queue_size 已经变成了thread_pool.bulk.queue_size ,ES_HEAP_SIZE,ES_MAX_MEM等配置都变为ES_JAVA_OPTS这一配置项,如限制内存最大最小为1G: 1 export ES_JAVA_OPTS="-Xms1g -Xmx1g" 然后可以打开页面http://node1:9200/,将会看到以下内容:(我是通过外部访问虚拟机,因此为了简单没有配置host文件,直接用ip访问) Logstash 配置Logstash: 1 2 tar -zxvf logstash-6.2.4.tar.gz cd logstash-6.2.4 编写配置文件(名字和位置可以随意,这里我放在config目录下,取名为log_app.conf): 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 vi config/log_app.config #以下为内容 input { file { path => "/usr/local/software/elk/app.log" start_position => "beginning" #从文件开始处读写 } # stdin {} #可以从标准输入读数据 } filter { #Only matched data are send to output. } output { # For detail config for elasticsearch as output, # See: https://www.elastic.co/guide/en/logstash/current/plugins-outputs-elasticsearch.html elasticsearch { action => "index" #The operation on ES hosts => "node1:9200" #ElasticSearch host, can be array. index => "applog" #The index to write data to. } } 其他的选项保持默认,然后启动Logstash: 1 2 # -f为指定配置文件 nohup sh ./bin/logstash -f ../config/log_app.config > nohup.log & 日志: Kibana 配置Kibana: 1 2 tar -zxvf kibana-6.2.4-linux-x86_64.tar.gz cd kibana-6.2.4-linux-x86_64 修改以下几项(由于是单机版的,因此host的值也可以使用localhost来代替,这里仅仅作为演示): 1 2 3 4 server.port: 5601 server.host: “node1” elasticsearch.url: http://node1:9200 kibana.index: “.kibana” 启动kibana: 1 nohup sh ./bin/kibana > nohup.log & 启动后界面: 然后需要创建index,步骤如下: ①点击左边iscover出现以下界面 ②按照注释配置,然后点击Next step,在第二页 选择@timestamp点击create创建 ③创建完成之后,可以看到以下一个界面,红框内是 自动生成的域,也可以理解为 跟数据库中的字段类似,其中有一个message字段,就是我们想要的日志信息。 ④再次点击Discover出现以下界面,可以看到默认搜索的是最后15分钟的日志,可以通过点击设置搜索的时间范围. ⑤可以点击右侧域的add设置需要显示的字段 添加完成之后,日志显示如下:
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值