elasticsearch 插入 geo_point数据_基于docker-compose安装ELK 数据分析平台

本文介绍了如何使用docker-compose搭建ELK数据分析平台,并重点讲述了如何在elasticsearch中插入geo_point数据。首先,创建elasticsearch的配置目录和文件,调整权限,然后编写docker-compose.yml文件。接着,修改系统参数并启动容器。成功启动后,通过浏览器访问Kibana。ELK平台可用于数据检索、错误分析等多个场景。文章还简单介绍了elastic和logstash的工作流程,以及如何在elasticsearch中进行数据操作。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. 创建目录/usr/local/docker/elasticsearch
  2. 在该目录下创建conf、data、plugins目录
  3. 赋予data777的权限:chmod 777 data
  4. 在conf目录下编写elasticsearch.yml配置文件
  5. 在elasticsearch目录下创建docker-compose.yml文件
version: '3.1'services:  elasticsearch:    image: elasticsearch:7.6.2    container_name: elasticsearch    environment:      - node.name=node1      - cluster.initial_master_nodes=node1      - bootstrap.memory_lock=true      - "ES_JAVA_OPTS=-Xms512m -Xmx512m"    ulimits:      memlock:        soft: -1        hard: -1    volumes:      - ./data:/usr/local/elasticsearch/data      - ./conf/elasticsearch.yml:/usr/local/elasticsearch/config/elasticsearch.yml      - ./plugins:/usr/local/elasticsearch/plugins    ports:      - 9200:9200    restart: always    networks:      - elastic  kibana:    image: kibana:7.6.2    container_name: kibana    environment:      - I18N_LOCALE=zh-CN    ports:      - 5601:5601    depends_on:      - elasticsearch    restart: always    networks:      - elastic  logstash:    image: docker.elastic.co/logstash/logstash:6.6.1    container_name: logstash    hostname: logstash    volumes:      - /path/logstash.yml:/usr/loacal/logstash/config/logstash.yml      - /path/logstash-etc/:/etc/logstash/    ports:      - 5044:5044networks:      - elasticnetworks:elastic:driver: bridge

修改/etc/sysctl.conf文件,添加vm.max_map_count = 262144到最后一行后保存文件,然后执行命令sysctl -p

6.在logstash conf目录下创建.logstash.yml文件

# 输入输入input { stdin {} }# 数据处理filter {    grok {        match => ["message",  "%{COMBINEDAPACHELOG}"]    }}# 数据输出output { stdout { codec => rubydebug } }

docker-compose up -d启动容器

在浏览器访问

63e59faa941304d8742348eee515dc0d.png

elastic 启动成功

f26106c32550e0bdf8dd9e0b4326cdea.png

搭建成功,启动es前端 kibana 成功

elk 数据分析平台作用

数据分析平台可以用作:数据 检索,线上错误状态分析,故障影响范围分析,测试进度进展,漏测分析,关联图,异常接口分析等

3483bc2e9b01b7a2b2f8fb436367d6a2.png

架构原理

c2038d315f6ac257c7e1335f63481be0.png

logstash 的工作流程

02afa2850bd30af762b60d5aa57fd039.png
d38706764d65c48d5ab19a62daef297c.png
59828fcaab8b2638806e337cdcc4e553.png

elastic 的介绍

66d8d5b9f5b4a1fc653594e9820e5d5d.png

和mysql数据库比对

2aa5e56653f7d8d41717e1643ac6fe59.png

追加数据

bf8e3e162b20ce6cc6440b0239b460bc.png

获取数据

a1b7826333aa6c2757857d453bd46224.png

搜索全部数据

3541aa3d49ce10b2716078b9743217a0.png

按条件搜索

#追加一个json到 customer/_doc/1?pretty 目录下curl -X PUT "localhost:9200/customer/_doc/1?pretty" -H 'Content-Type: application/json' -d'{  "name": "seveniruby"}'#获取数据curl -X GET "localhost:9200/customer/_doc/1?pretty"#搜索全部数据curl -X GET "localhost:9200/customer/_search?pretty" -H 'Content-Type: application/json' -d'{  "query": { "match_all": {} }}'#按条件搜索curl -X GET "localhost:9200/customer/_search?pretty" -H 'Content-Type: application/json' -d'{  "query": { "match": { "name": "xxdswd" } }}'
4d56b0bd974568a99865496f37223bf9.png

创建索引

8e251b2937e5102853fed51ab8afaf1a.png

一直下一步即可

cd238751237523c96d89ffcaf83409ba.png

discovery即可查看 数据

3fedd0cb85f6de759dbbf5d624dd50fe.png

discovery 界面添加

for i in {4..400} ;do curl -X PUT "localhost:9200/customer/_doc/$i?pretty" -H 'Content-Type: application/json' -d'{  "name": "zhangcdsa i='$i'"}';sleep 0.5;done#循环插入数据,kibana就可以实时获取并名字数据 了
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值