容器化(Docker、K8S)部署Elasticsearch + Kibana

ElasticSearch简介

#简介
Elasticsearch是一个分布式、RESTful风格的搜索和数据分析引擎,可以实现单机和集群部署,轻松缩放规模。

ELK:Elasticsearch + Kibana + Logstash


#官方地址
https://www.elastic.co/cn/
https://www.elastic.co/guide/en/elastic-stack/7.6/overview.html
https://hub.docker.com/_/elasticsearch


#应用场景
日志分析:对IT设备进行运维分析与故障定位、对业务指标分析运营效果。
站内搜索:对网站内容进行关键字检索、对电商网站商品进行检索与推荐。
向量检索:对图像、视频、语料等非结构化数据提取的特征向量数据进行最近邻或近似近邻检索。

本次实验目标

目标1:Docker部署Elasticsearch + Kibana
目标2:安装中文分词器插件,配置认证
目标3:基本操作演示
目标4:在华为云CCE中部署
目标5:使用Logstash进行数据迁移
目标6:使用华为云CSS服务
视频教程地址:https://www.bilibili.com/video/BV1MP4y1e7u8/?vd_source=8e4a436fd4e37be82e3fee379554aa59

实验环境

#实验云资源
ECS:通用计算增强型 | c7.xlarge.2 | 4vCPUs | 8GiB
SFS、CCE

#前期环境条件
1)准备好对应的云资源
2)已安装好Docker,配置加速镜像

#本次实验资源由「淘客科技@华为云」 提供

Docker部署Elasticsearch + Kibana

#准备
$ mkdir -p /cxy/es76/data
$ chmod 777 /cxy/es76/data	#如果不授权,容器里的用户权限不足操作外层目录,启动会失败

#部署ElasticSearch
$ docker run -d --name es7.6 -p 9201:9200 -p 9301:9300 -v "/cxy/es76/data":/usr/share/elasticsearch/data -e "discovery.type=single-node" elasticsearch:7.6.0

#查看日志
$ docker logs es7.6 --since 30m

#访问验证
http://ip:9201

#部署Kibana 
$ docker run --name kibana7.6 -p 5602:5601 -d --link es7.6:elasticsearch kibana:7.6.0
$ docker logs -f kibana7.6 

#修改配置文件
$ docker exec -it kibana7.6 bash
$ cd config
$ vi kibana.yml

1)如果地址不对,改一下地址
2)添加:i18n.locale: "zh-CN"

#改配后重启
$ docker restart kibana7.6

#验证
http://ip:5602
安装中文分词器插件,配置认证
#安装中文分词器(版本务必对应)
#下载地址:https://github.com/medcl/elasticsearch-analysis-ik/releases?page=8
$ docker cp elasticsearch-analysis-ik-7.6.0.zip es7.6:/usr/share/elasticsearch/plugins/

$ docker exec -it es7.6 bash

#安装插件
$ cd plugins/
$ mkdir analysis-ik
$ mv elasticsearch-analysis-ik-7.6.0.zip  analysis-ik/
$ cd analysis-ik
$ unzip elasticsearch-analysis-ik-7.6.0.zip
$ rm -rf elasticsearch-analysis-ik-7.6.0.zip

#重启服务
$ docker restart es7.6

#验证
POST  _analyze
{
  "analyzer": "ik_max_word",
  "text": "2017春装新款休闲裤女装"
}



#安全设置,认证配置
$ docker exec -it es7.6 bash
$ vi /usr/share/elasticsearch/config/elasticsearch.yml

#开启自带的xpack的验证功能
xpack.security.enabled: true

#重启服务
$ docker restart es7.6

#设置密码
$ docker exec -it es7.6 bash
$ cd /usr/share/elasticsearch/bin
$ ./elasticsearch-setup-passwords interactive
#给每个账号设置密码(toc@Hwy)


#改变kibana
$ docker exec -it kibana7.6 bash
$ vi config/kibana.yml
elasticsearch.username: "kibana"
elasticsearch.password: "123456"

#重启服务
$ docker restart kibana7.6

#验证
登录kibana时需要用  elastic  作为用户名。

基本操作

#创建索引映射(类似于关系型数据库中的表结构)
PUT /my_store
{
  "mappings" : {
      "properties" : {
        "price" : {
          "type" : "float"
        },
        "productName" : {
          "type" : "text",
          "analyzer" : "ik_smart",
          "search_analyzer" : "ik_max_word"
        },
        "size" : {
          "type" : "text"
        },
        "tag" : {
          "type" : "keyword"
        }
      }
    }
}

#直接新增customer
PUT /customer/_doc/1
{
  "name": "cxy@toc"
}

#查看所有索引
GET _cat/indices

#单条新增,指定id (会删除没有的字段,无变化重复执行:版本会递增)
PUT /my_store/_doc/1
{
  "productName":"李宁休闲裤",
  "size":"L",
  "price":100.5
}

#修改(不会修改没有的字段,无变化重复执行:版本号不变)
POST /my_store/_update/1
{
	"doc":{
  	"productName":"李宁休闲裤G",
  	"size":"L",
  	"price":100.5
  }
}

#查看这条数据 (注意两种方式_version区别)
GET /my_store/_doc/1

#批量插入
POST /my_store/_doc/_bulk
{"index":{}}
{"productName":"2017秋装新款文艺衬衫女装","size":"L","price":100.5}
{"index":{}}
{"productName":"2017秋装新款文艺衬衫女装","size":"M","price":110.5}
{"index":{}}
{"productName":"2017秋装新款文艺衬衫女装","size":"S","price":120.5}
{"index":{}}
{"productName":"2018春装新款牛仔裤女装","size":"M","price":130.5}
{"index":{}}
{"productName":"2018春装新款牛仔裤女装","size":"S","price":140.5}
{"index":{}}
{"productName":"2017春装新款休闲裤女装","size":"L","price":150.5}
{"index":{}}
{"productName":"2017春装新款休闲裤女装","size":"S","price":160.5}

POST /my_store/_doc/_bulk
{"index":{}}
{"productName":"2017春装女裤","size":"L","price":100.5}
{"index":{}}
{"productName":"2017夏装女裤","size":"M","price":110.5}
{"index":{}}
{"productName":"2018秋装女鞋","size":"S","price":120.5}
{"index":{}}
{"productName":"2018冬装女鞋装","size":"M","price":130.5}
{"index":{}}
{"productName":"2019春装男裤","size":"S","price":140.5}
{"index":{}}
{"productName":"2019夏装男裤","size":"L","price":150.5}
{"index":{}}
{"productName":"2019秋装男鞋","size":"S","price":160.5}
{"index":{}}
{"productName":"2019冬装男鞋","size":"S","price":160.5}


#获得总记录数
GET /my_store/_count

#查看索引所有数据
GET /my_store/_search

#查看索引所有数据,排序,分页
GET /my_store/_search
{
  "query": { "match_all": {} },
  "sort": [
    { "price": "asc" }
  ],
  "from": 0,
  "size": 5
}

#条件检索
GET /my_store/_search
{
  "query": { "match": { "size": "S" } }
}

#聚合
GET /my_store/_search
{
  "query": {
    "match": {
      "productName": "春装"
    }
  },
  "size": 0,
  "aggs": {
    "sizes": {
      "terms": {
        "field": "price"
      }
    }
  }
}

#删除所有
POST /my_store/_delete_by_query
{
  "query": { 
    "match_all": {
    }
  }
}

在华为云CCE中部署

# elasticsearch
镜像:elasticsearch:7.6.0

生命周期 -- 启动后:
/bin/bash
-c
sleep 1s;sed -i '$axpack.security.enabled: true' /usr/share/elasticsearch/config/elasticsearch.yml

环境变量:
discovery.type	single-node

数据存储:
sfs
/usr/share/elasticsearch/data		es/data
/usr/share/elasticsearch/plugins	es/plugins
#注意:这里必须是SFS,不能是OBS(OBS非常的慢,经常会超时)

访问方式:
服务名称:elasticsearch:9200 (一定要是这个名称,因为kibana的kibana.yml里默认配置的是elasticsearch:9200)
#如果这里不是上面配置方式,还要做kibana.yml配置文件的修改



# kibana
镜像:kibana:7.6.0
生命周期 -- 启动后:

/bin/bash
-c
sleep 1s;sed -i '$ai18n.locale: "zh-CN"\nelasticsearch.username: "kibana"\nelasticsearch.password: "123456"' /usr/share/kibana/config/kibana.yml

使用Logstash进行数据迁移

#参考
https://support.huaweicloud.com/bestpractice-css/css_07_0009.html
https://help.aliyun.com/document_detail/418418.html#section-wpf-9cg-1m1

#购买一台新的迁移ECS
$ yum install java
$ yum install python

#下载logstash-oss
$ wget https://artifacts.elastic.co/downloads/logstash/logstash-oss-7.6.0-x86_64.rpm
$ yum install logstash-oss-7.6.0-x86_64.rpm

$ vim /etc/logstash/jvm.options
-Xms4g
-Xmx4g

$ cd /etc/logstash/conf.d/
$ vim logstash-es-es-all.conf

$ /usr/share/logstash/bin/logstash --path.settings /etc/logstash

#日志位置:/var/log/logstash/
<think>好的,用户现在想要在Kubernetes集群内部署Elasticsearch、Fluentd和Kibana(EFK)技术栈的文档。首先,我需要理解用户的需求。用户可能正在搭建一个日志管理系统,用于收集、存储和可视化Kubernetes中的日志。EFK是一个常见的组合,其中Fluentd负责日志收集,Elasticsearch存储日志,Kibana提供可视化界面。 接下来,我需要考虑用户可能的背景。他们可能是有一定Kubernetes基础的系统管理员或DevOps工程师,但可能对EFK的具体部署步骤不太熟悉。用户可能希望有一个详细的指南,帮助他们一步步完成部署,并解决可能遇到的问题。 然后,我需要组织内容结构。首先介绍EFK各组件的作用,然后详细说明部署步骤,包括命名空间创建、Elasticsearch部署、Fluentd配置、Kibana部署以及验证步骤。此外,常见问题和优化建议也很重要,帮助用户应对实际部署中的挑战。 在编写具体步骤时,需要注意Kubernetes的资源配置,比如Elasticsearch的StatefulSet需要持久化存储,资源限制,以及节点亲和性设置。Fluentd的配置需要涉及DaemonSet,确保每个节点运行一个Pod来收集日志。Kibana部署则需要注意服务暴露的方式,比如NodePort或Ingress。 同时,要检查用户之前的问题历史。用户之前询问过Filebeat处理多行日志的问题,现在转向EFK,可能对日志收集的可靠性和扩展性有更高要求。因此,在文档中需要强调Fluentd在多行日志处理上的优势,并可能提供相关配置示例。 另外,用户可能关心如何验证部署是否成功,所以需要包括检查Pod状态、访问Kibana界面以及测试日志收集的步骤。常见问题部分需要覆盖存储问题、资源不足、Fluentd配置错误等,提供具体的解决方案。 最后,优化建议部分应该帮助用户提升性能和稳定性,比如Elasticsearch的索引策略、Fluentd的缓冲区配置和Kibana的优化。这些内容能够帮助用户在生产环境中更好地管理EFK栈。 总结来说,需要提供一个结构清晰、步骤详细、包含故障排查和优化建议的文档,帮助用户在K8s上顺利部署EFK,满足日志管理的需求。</think>以下是基于 Kubernetes 集群部署 **Elasticsearch + Fluentd + Kibana (EFK)** 技术栈的完整文档: --- ### 一、架构概述 ```mermaid graph TD A[应用Pod日志] -->|stdout/stderr| B[K8s节点/var/log/containers] B -->|DaemonSet采集| C[Fluentd] C -->|结构化处理| D[Elasticsearch] D -->|数据存储| E[Kibana可视化] ``` --- ### 二、前置条件 1. **Kubernetes 集群版本** ≥ 1.18 2. **存储类(StorageClass)**:支持动态卷供应(如 `rook-ceph`, `nfs`) 3. **资源配额**:建议每个节点预留至少 2CPU + 4GB 内存 4. **Helm 工具**:用于快速部署(版本 ≥ 3.0) --- ### 三、详细部署步骤 #### 步骤 1:创建专用命名空间 ```bash kubectl create namespace efk ``` #### 步骤 2:部署 Elasticsearch ```yaml # elasticsearch-statefulset.yaml apiVersion: apps/v1 kind: StatefulSet metadata: name: elasticsearch namespace: efk spec: serviceName: elasticsearch replicas: 3 selector: matchLabels: app: elasticsearch template: metadata: labels: app: elasticsearch spec: affinity: podAntiAffinity: requiredDuringSchedulingIgnoredDuringExecution: - labelSelector: matchExpressions: - key: app operator: In values: ["elasticsearch"] topologyKey: "kubernetes.io/hostname" containers: - name: elasticsearch image: docker.elastic.co/elasticsearch/elasticsearch:7.17.3 resources: limits: memory: 4Gi requests: cpu: 1000m memory: 2Gi env: - name: discovery.type value: single-node # 生产环境需改为 zen 发现机制 - name: ES_JAVA_OPTS value: "-Xms2g -Xmx2g" ports: - containerPort: 9200 name: http volumeMounts: - name: data mountPath: /usr/share/elasticsearch/data volumes: - name: data persistentVolumeClaim: claimName: es-data-pvc --- # elasticsearch-service.yaml apiVersion: v1 kind: Service metadata: name: elasticsearch namespace: efk spec: selector: app: elasticsearch ports: - port: 9200 name: http clusterIP: None ``` #### 步骤 3:部署 Fluentd ```yaml # fluentd-configmap.yaml apiVersion: v1 kind: ConfigMap metadata: name: fluentd-config namespace: efk data: fluent.conf: | <source> @type tail path /var/log/containers/*.log pos_file /var/log/fluentd-containers.log.pos tag kube.* read_from_head true <parse> @type json time_format %Y-%m-%dT%H:%M:%S.%NZ </parse> </source> <filter kube.**> @type kubernetes_metadata </filter> <match kube.**> @type elasticsearch host elasticsearch.efk.svc.cluster.local port 9200 logstash_format true logstash_prefix fluentd flush_interval 5s </match> --- # fluentd-daemonset.yaml apiVersion: apps/v1 kind: DaemonSet metadata: name: fluentd namespace: efk spec: selector: matchLabels: app: fluentd template: metadata: labels: app: fluentd spec: tolerations: - key: node-role.kubernetes.io/master effect: NoSchedule containers: - name: fluentd image: fluent/fluentd-kubernetes-daemonset:v1.16-debian-elasticsearch7 env: - name: FLUENT_ELASTICSEARCH_HOST value: "elasticsearch.efk.svc.cluster.local" - name: FLUENT_ELASTICSEARCH_PORT value: "9200" resources: limits: memory: 512Mi requests: cpu: 100m memory: 200Mi volumeMounts: - name: varlog mountPath: /var/log - name: config-volume mountPath: /fluentd/etc/conf.d volumes: - name: varlog hostPath: path: /var/log - name: config-volume configMap: name: fluentd-config ``` #### 步骤 4:部署 Kibana ```yaml # kibana-deployment.yaml apiVersion: apps/v1 kind: Deployment metadata: name: kibana namespace: efk spec: replicas: 1 selector: matchLabels: app: kibana template: metadata: labels: app: kibana spec: containers: - name: kibana image: docker.elastic.co/kibana/kibana:7.17.3 resources: limits: memory: 1Gi requests: cpu: 500m memory: 512Mi env: - name: ELASTICSEARCH_HOSTS value: "http://elasticsearch.efk.svc.cluster.local:9200" ports: - containerPort: 5601 --- # kibana-service.yaml apiVersion: v1 kind: Service metadata: name: kibana namespace: efk spec: type: NodePort selector: app: kibana ports: - port: 5601 targetPort: 5601 nodePort: 30601 ``` --- ### 四、验证部署 1. **检查 Pod 状态**: ```bash kubectl -n efk get pods -l app=elasticsearch kubectl -n efk get pods -l app=fluentd kubectl -n efk get pods -l app=kibana ``` 2. **访问 Kibana**: - 浏览器访问 `http://<任意节点IP>:30601` - 创建索引模式 `fluentd-*` 3. **测试日志收集**: ```bash kubectl run test-logger --image=alpine -- sh -c "while true; do echo 'EFK test log'; sleep 5; done" ``` --- ### 五、常见问题处理 #### 问题 1:Elasticsearch 无法启动 - **现象**:Pod 处于 `CrashLoopBackOff` 状态 - **排查**: ```bash kubectl -n efk logs elasticsearch-0 ``` - **解决方案**:检查存储类是否可用,调整 Java 堆内存参数 #### 问题 2:Fluentd 无法连接 Elasticsearch - **现象**:日志中出现 `Connection refused` 错误 - **排查**: ```bash kubectl -n efk exec -it fluentd-xxxxx -- curl elasticsearch:9200 ``` - **解决方案**:检查 Service 域名解析,确认网络策略允许通信 --- ### 六、生产环境优化建议 1. **Elasticsearch 优化**: - 使用专用节点角色(master/data/ingest) - 配置索引生命周期管理 (ILM) ```yaml # 示例索引模板 PUT _template/logs { "index_patterns": ["fluentd-*"], "settings": { "number_of_shards": 3, "number_of_replicas": 1, "index.lifecycle.name": "logs_policy" } } ``` 2. **Fluentd 优化**: - 增加缓冲区配置防止数据丢失 ```conf <match **> @type elasticsearch buffer_type memory buffer_chunk_limit 32m buffer_queue_limit 1024 flush_interval 5s </match> ``` 3. **Kibana 优化**: - 启用 X-Pack 安全模块 - 配置 Ingress + TLS 证书 --- ### 附:快速部署命令(Helm 方式) ```bash # 添加 Helm 仓库 helm repo add elastic https://helm.elastic.co # 部署 Elasticsearch helm install elasticsearch elastic/elasticsearch -n efk # 部署 Kibana helm install kibana elastic/kibana -n efk # 部署 Fluentd helm install fluentd stable/fluentd --set elasticsearch.host=elasticsearch-master.efk.svc.cluster.local ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值