使用docker快速部署logstash

该博客介绍了如何在三个节点上部署Logstash集群,通过Docker容器进行管理。首先,详细列出了节点的IP地址,然后跳过了Docker的安装步骤。接着,创建了挂载目录并配置了Logstash的启动参数,包括设置http.host和xpack.monitoring.elasticsearch.hosts。博主还创建了一个新的pipeline配置文件kafka-ls-es.conf,用于从Kafka接收数据并将其过滤后写入Elasticsearch。最后,提供了启动Logstash容器的命令,并强调了多个实例时客户端ID的注意事项。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

环境准备

节点名称ip地址
node1192.168.130.20
node2192.168.130.19
node2192.168.130.21

安装docker

创建挂载目录和配置

启动容器

docker run -d  -p 5044:5044 --name logstash \
logstash:7.4.1

拷贝配置

mkdir -p /root/logstash/data && chmod 777 /root/logstash/data
docker cp logstash:/usr/share/logstash/config  /root/logstash/
docker cp logstash:/usr/share/logstash/pipeline /root/logstash/

删除(只是为了拿到原始配置)

docker rm -f logstash

修改logstash.yml

vi /root/logstash/config/logstash.yml

logstash.yml内容如下

http.host: "0.0.0.0"
xpack.monitoring.elasticsearch.hosts: [ "http://192.168.130.20:9200" ]

修改pipelines.yml

vi /root/logstash/config/pipelines.yml

pipelines.yml内容如下

#- pipeline.id: main
#  path.config: "/usr/share/logstash/pipeline/logstash.conf"
- pipeline.id: kafkatoes
  path.config: "/usr/share/logstash/pipeline/kafka-ls-es.conf"
  pipeline.workers: 4

创建一个新的pipeline配置文件kafka-ls-es.conf,用于从kafka接受数据经过过滤后写入es

vi /root/logstash/pipeline/kafka-ls-es.conf

内容如下(根据实际情况配置)

# kafka -> Logstash -> Elasticsearch pipeline.
input {
  kafka {
    bootstrap_servers => ["192.168.130.20:9092,192.168.130.19:9092,192.168.130.21:9092"]
	group_id => "hello"
	client_id => "ls-node1"
	consumer_threads => "4"
	topics => ["hello-elk"]
	codec => json { charset => "UTF-8" }
  }
}

filter{
    json{
        source=>"message"
    }
}

output {
   elasticsearch { 
        hosts => ["192.168.130.20:9200","192.168.130.19:9200","192.168.130.21:9200"] 
        index => "hello-elk-%{+YYYY.MM.dd}"
        #user => "elastic"
        #password => "changeme
   }
}

启动

node1

docker run -d --user root \
--name ls-node1 \
-p 5044:5044 \
-v /root/logstash/config:/usr/share/logstash/config \
-v /root/logstash/pipeline:/usr/share/logstash/pipeline \
-v /root/logstash/data:/usr/share/logstash/data \
-e TZ=Asia/Shanghai \
logstash:7.4.1

node2

如果有多个logstash实例, kafka-ls-es.conf中的clientid要不一样

docker run -d --user root \
--name ls-node2 \
-p 5044:5044 \
-v /root/logstash/config:/usr/share/logstash/config \
-v /root/logstash/pipeline:/usr/share/logstash/pipeline \
-v /root/logstash/data:/usr/share/logstash/data \
-e TZ=Asia/Shanghai \
logstash:7.4.1
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值