flume从本地读取数据录入到hdfs文件系统

本文介绍了一个使用 Apache Flume 进行日志收集的具体配置案例。配置包括源(Source)、通道(Channel)和接收器(Sink)的设置,其中源采用 TAILDIR 类型监听指定目录下的 .log 文件,通道为内存类型,接收器则将数据写入 HDFS 中,并详细配置了 HDFS 的路径、滚动策略等参数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

配置文件

agent.sources = origin  
agent.channels = memorychannel  
agent.sinks = target  
  
agent.sources.origin.type = TAILDIR
agent.sources.origin.filegroups=f1
agent.sources.origin.filegroups.f1=/hadoop/flume/logs/test/.*.log*
agent.sources.origin.channels = memorychannel  
agent.sources.origin.positionFile=/hadoop/flume/logs/test/position.json
  
agent.sinks.loggerSink.type = logger  
agent.sinks.loggerSink.channel = memorychannel  
  
agent.channels.memorychannel.type = memory  
agent.channels.memorychannel.capacity = 1000 
agent.channels.memorychannel.transactionCapacity = 100
  
agent.sinks.target.type = hdfs  
agent.sinks.target.channel = memorychannel  
agent.sinks.target.hdfs.path = hdfs://127.0.0.1:9000/flume/events/%y-%m-%d/%H%M%S  
agent.sinks.target.hdfs.filePrefix = data-%{host}  
agent.sinks.target.hdfs.rollInterval = 30  
agent.sinks.target.hdfs.rollSize = 100  
agent.sinks.target.hdfs.rollCount = 0
agent.sinks.target.hdfs.round = true  
agent.sinks.target.hdfs.useLocalTimeStamp = true  
agent.sinks.target.hdfs.minBlockReplicas=1  
agent.sinks.target.hdfs.writeFormat=Text  
agent.sinks.target.hdfs.fileType=DataStream  

把hdfs的驱动包放入到flum的lib目录下

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值