Flume入门三_采集日志文件到HDFS

本文介绍了一种使用Flume进行日志收集的具体配置方法,包括配置文件详解、日志文件创建及数据追加过程、Flume启动命令,并展示了如何查看HDFS中收集的日志文件。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 配置文件如下:

[hadoop@langzi01 conf]$ cat tail-hdfs.conf 

内容如下:

#Name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1

#describe/configure the source
a1.sources.r1.type = exec
a1.sources.r1.command = tail -F /home/hadoop/log/test.log
a1.sources.r1.channels = c1

#describe the sink
a1.sinks.k1.type = hdfs
a1.sinks.k1.channel = c1
a1.sinks.k1.hdfs.path = /flume/events/%y-%m-%d/%H%M
a1.sinks.k1.hdfs.filePrefix = events-
a1.sinks.k1.hdfs.round = true
a1.sinks.k1.hdfs.roundValue = 10
a1.sinks.k1.hdfs.roundUnit = minute
a1.sinks.k1.rollInterval = 3
a1.sinks.k1.rollSize = 200
a1.sinks.k1.rollCount = 10
a1.sinks.k1.batchSize = 5
a1.sinks.k1.hdfs.useLocalTimeStamp = true
#生成的文件类型,默认是Sequencefile,可用DataStream,则为普通文本
a1.sinks.k1.hdfs.fileType = DataStream

#Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity= 100

#bind the source and sink to thw channel
a1.sourcesr1.channels = c1
a1.sinks.k1.channel = c1

2. 创建/home/hadoop/log/test.log

[hadoop@langzi01 log]$ touch test.log

#向文件里面追加数据,1s追加一次
[hadoop@langzi01 log]$ while true
> do
> echo aaaaaaaaaaaaaa >> test.log
> sleep 1
> done

3. 启动flume(保证hdfs已经处于工作状态)

[hadoop@langzi01 conf]$ ../bin/flume-ng agent --conf conf --conf-file tail-hdfs.conf --name a1

即可。

4. 查看hdfs的文件系统

这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值