采用Flume实时采集和处理数据

本文介绍如何使用Flume进行实时数据采集与处理。通过配置代理监控指定目录下的文件变化,并将数据上传至HDFS。具体步骤包括设置Flume配置文件及编写Shell脚本来启动Flume任务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

它已成功安装Flume在...的基础上。本文将总结使用Flume实时采集和处理数据,详细过程,如下面:

第一步,在$FLUME_HOME/conf文件夹下,编写Flume的配置文件,命名为flume_first_conf,详细内容例如以下:

#agent1表示代理名称
agent1.sources=source1
agent1.sinks=sink1
agent1.channels=channel1

#Spooling Directory是监控指定目录中新文件的变化,一旦新文件出现,就解析该文件内容。然后写入到channle。写入完毕后。标记该文件已完毕或者删除该文件。

#配置source1 agent1.sources.source1.type=spooldir agent1.sources.source1.spoolDir=/home/yujianxin/hmbbs agent1.sources.source1.channels=channel1 agent1.sources.source1.fileHeader = false agent1.sources.source1.interceptors = i1 agent1.sources.source1.interceptors.i1.type = timestamp #配置channel1 agent1.channels.channel1.type=file agent1.channels.channel1.checkpointDir=/home/yujianxin/hmbbs/hmbbs_tmp123 agent1.channels.channel1.dataDirs=/home/yujianxin/hmbbs/hmbbs_tmp #配置sink1 agent1.sinks.sink1.type=hdfs agent1.sinks.sink1.hdfs.path=hdfs://slave3:9000/hmbbs agent1.sinks.sink1.hdfs.fileType=DataStream agent1.sinks.sink1.hdfs.writeFormat=TEXT agent1.sinks.sink1.hdfs.rollInterval=1 agent1.sinks.sink1.channel=channel1 agent1.sinks.sink1.hdfs.filePrefix=%Y-%m-%d

第二步,编写Shell脚本,运行Flume任务

     <span style="font-size:18px;">        vi flume1.sh

             #!/bin/sh
           flume-ng agent -n agent1 -c conf-f /home/yujianxin/flume/apache-flume-1.4.0-bin/conf/flume_first_conf   
           -Dflume.root.logger=DEBUG,console >./flume1.log 2>&1 &
          让日志收集任务以后台进程执行,且将执行日志重定向到./flume1.log保存。

验证

通过命令行查看新启的进程


不断往Flume监控的文件夹/home/yujianxin/hmbbs1下放置文件

查看./flume.log执行日志,截部分关键图例如以下


查看成功上传到HDFS中的文件

OK。使用Flume自己主动监控指定文件夹下文件的变化,自己主动处理。上传到HDFS。比曾经自己写Shell脚本便利、快捷键、更高效。哈哈


版权声明:本文博主原创文章,博客,未经同意不得转载。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值