通过flume把日志文件内容写入kafka主题

本文介绍如何配置Flume将日志数据发送至Kafka。使用Flume版本1.6与Kafka版本2.11,通过具体配置示例实现从文件系统收集日志并实时传输至Kafka主题的过程。

首先自行安装flume和 kafka当然还要jdk,我flume版本是1.6的kafka版本2.11,jdk1.8。

首先在路径flume下的conf里面创建一个logtokafka.conf文件进行配置配置内容如下。

agent.sources=r1
agent.sinks=k1
agent.channels=c1

agent.sources.r1.type=exec
agent.sources.r1.command=tail -F /opt/log.log
agent.sources.r1.restart=true
agent.sources.r1.batchSize=1000
agent.sources.r1.batchTimeout=3000
agent.sources.r1.channels=c1

agent.channels.c1.type=memory
agent.channels.c1.capacity=102400
agent.channels.c1.transactionCapacity=1000

agent.channels.c1.byteCapacity=134217728
agent.channels.c1.byteCapacityBufferPercentage=80

agent.sinks.k1.channel=c1
agent.sinks.k1.type=org.apache.flume.sink.kafka.KafkaSink
agent.sinks.k1.kafka.topic=logtokafka123
agent.sinks.k1.kafka.bootstrap.servers=192.168.72.129:9092,192.168.72.130:9092,192.168.72.131:9092
agent.sinks.k1.serializer.class=kafka.serializer.StringEncoder
agent.sinks.k1.flumeBatchSize=1000
agent.sinks.k1.useFlumeEventFormat=true

配置conf 中的flume-env.sh 文件,没有的cp 一下flume-env.sh .template 。

export JAVA_HOME=/opt/jdk1.8.0_161/

启动flume-agent 

./bin/flume-ng agent -c conf -f conf/logtokafka.conf -n agent -Dflume.root.logger=INFO,console 

最后可以通过以下命令在kafka下进行查看主题中是否我们日志里面的内容:

 ./kafka-console-consumer.sh  --zookeeper localhost--topic logtokafka --from-beginning


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值