Docker安装Logstash,并拉取Kafka数据

该博客介绍了如何使用Docker拉取Logstash镜像,并配置Logstash从Kafka消费数据,然后将数据发送到Elasticsearch的过程。创建了logstash.yml和logstash.conf配置文件,分别设置了ES的监控和输入输出参数。最后通过Docker命令启动Logstash容器。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、拉镜像

docker pull logstash:8.1.3

二、创建挂载文件夹及文件

创建文件夹

mkdir /data/logstash/log -p
cd /data/logstash

创建logstash.yml文件

vim logstash.yml

文件中内容如下

http.host: "0.0.0.0"
#ES地址
xpack.monitoring.elasticsearch.hosts: ["http://192.168.1.110:9009"] 
xpack.monitoring.enabled: true
#ES中的内置账户和密码,在ES中配置
xpack.monitoring.elasticsearch.username: logstash_system    
xpack.monitoring.elasticsearch.password: *****************

创建logstash.conf文件

vim logstash.conf

文件中内容如下

input {
     kafka {
      topics => "kafkaTopic"  #kafka的topic
      bootstrap_servers => ["192.168.1.100:9092"]  #服务器地址
      codec => "json"  #以Json格式取数据   
           }
}
output {
  elasticsearch {
    hosts => ["192.168.1.110:9009&
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值