flume

本文介绍如何使用Flume进行实时数据采集,通过配置Agent的Source、Channel和Sink组件来监控指定目录,并将新增文件内容备份至HDFS。文章详细展示了配置过程,并解决了常见错误。

Flume简介

 Flume是一个分布式的、可靠的、实用的服务——从不同的数据源高效的采集、整合、移动海量数据。
 
  flume
Agent是Flume的一个JVM进程,其中包含Source、Channel、Sink三个组件,要采集的数据经过定制化的Source缓存到Channel,Channel是一个队列,Source向里面插入数据,Sink从里面取数据,当Sink确认数据被下一跳Agent或者DB等接收后会将数据从Channel删除。

Source类型

source

Channel类型

channel

Sink类型

sink

实时收集某个目录下的文件的变化情况,将新增的文件备份到hdfs上
(Spooling Directory是监控指定文件夹中新文件的变化,一旦新文件出现,就解析该文件内容,然后写入到channle。写入完成后,标记该文件已完成或者删除该文件)
(一)修改flume.conf的配置文件
#vim flume.conf
#agent1表示代理名称  
agent1.sources=source1  
agent1.sinks=sink1  
agent1.channels=channel1  

#配置source1  
agent1.sources.source1.type=spooldir  
agent1.sources.source1.spoolDir=/testflume/  
agent1.sources.source1.channels=channel1  
agent1.sources.source1.fileHeader = false  
agent1.sources.source1.interceptors = i1  
agent1.sources.source1.interceptors.i1.type = timestamp  

#配置channel1  
agent1.channels.channel1.type=file  
agent1.channels.channel1.checkpointDir=/testflume/hmbbs_tmp123 
agent1.channels.channel1.dataDirs=/testflume/hmbbs_tmp  

#配置sink1  
agent1.sinks.sink1.type=hdfs  
agent1.sinks.sink1.hdfs.path=hdfs://192.168.1.164:8020/testflume
agent1.sinks.sink1.hdfs.fileType=DataStream  
agent1.sinks.sink1.hdfs.writeFormat=TEXT  
agent1.sinks.sink1.hdfs.rollInterval=1  
agent1.sinks.sink1.channel=channel1  
agent1.sinks.sink1.hdfs.filePrefix=%Y-%m-%d  
(2)CM上重启服务flume服务
(3)验证:
1、在本机的/testflume目录下新增文件,HDFS会自动收集到/testflume目录下
#cp /etc/passwd  /testflume
2、HDFS上查看
# hadoop fs -ls /testflume
-rw-r--r-- 3 flume supergroup 388 2017-03-18 16:03     /flumetest/2017-03-18.1489824261816
-rw-r--r-- 3 flume supergroup 490 2017-03-18 16:03 /flumetest/2017-03-18.1489824261817
报错及解决:

1)

HDFS IO error
java.io.IOException: Failed on local exception: 
com.google.protobuf.InvalidProtocolBufferException: Protocol message end-group tag did not match expected tag.; Host Details : local host is: "test2/192.168.1.165"; destination host is: "test2":9000; 
...........
Caused by: 
com.google.protobuf.InvalidProtocolBufferException: Protocol message end-group tag did not match expected tag.

解决:

CDH中NameNode端口fs.default.name=8020
agent1.sinks.sink1.hdfs.path=hdfs://192.168.1.165:8020/testflume

2)

HDFS IO error
org.apache.hadoop.ipc.RemoteException
(org.apache.hadoop.ipc.StandbyException): Operation category WRITE is not supported in state standby. Visit https://s.apache.org/sbnn-error

解决:

CDH的配置HA,192.168.1.165此时为备用机器
agent1.sinks.sink1.hdfs.path=hdfs://192.168.1.164:8020/testflume

3)

HDFS IO error
org.apache.hadoop.security.AccessControlException: Permission denied: user=flume, access=WRITE, inode="/testflume":root:supergroup:drwxr-xr-x

解决:

#hadoop fs -chmod 777 /testflume

参考:
flume介绍 http://www.cnblogs.com/vincent-vg/p/5809626.html

### Flume 使用指南与配置教程 Flume 是一个高度可靠、高性能的日志采集、聚合和传输工具,广泛用于大数据生态系统中。它能够从多个数据源高效地收集数据,并将数据传输到各种存储系统,如 HDFS、HBase、S3 等。Flume 的架构基于 Source、Channel 和 Sink 三大核心组件,确保数据在传输过程中的可靠性和稳定性 [^3]。 #### 1. Flume 安装步骤 Flume 的安装过程相对简单,主要步骤如下: 1. **下载 Flume 安装包** Flume 的官方下载地址可以在 Apache 官方网站找到,也可以通过百度网盘等第三方链接下载。例如,Flume 1.8.0 的安装包可以通过以下链接下载: ``` 链接:https://pan.baidu.com/s/11UsR4Y0d305yomJJ3K8ByA 提取码:0eyd ``` 2. **解压安装包** 下载完成后,将安装包上传到服务器,并使用以下命令解压: ```bash tar -zxvf apache-flume-1.8.0-bin.tar.gz ``` 3. **配置 Flume 环境变量** Flume 依赖 Java 环境,因此需要在 `flume-env.sh` 文件中配置 `JAVA_HOME`。首先,复制模板文件: ```bash cp flume-env.sh.template flume-env.sh ``` 然后编辑 `flume-env.sh` 文件,添加 Java 环境变量: ```bash export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk ``` #### 2. Flume 配置详解 Flume 的配置文件通常是一个 `.conf` 文件,定义了 Source、Channel 和 Sink 的具体实现和参数。以下是一个简单的 Flume 配置示例: ```properties # 定义 agent 的名称 a1.sources = r1 a1.channels = c1 a1.sinks = k1 # 配置 source(netcat) a1.sources.r1.type = netcat a1.sources.r1.bind = 0.0.0.0 a1.sources.r1.port = 44444 # 配置 channel(memory) a1.channels.c1.type = memory a1.channels.c1.capacity = 1000 a1.channels.c1.transactionCapacity = 100 # 配置 sink(logger) a1.sinks.k1.type = logger # 绑定 source、channel 和 sink a1.sources.r1.channels = c1 a1.sinks.k1.channel = c1 ``` #### 3. Flume 启动与测试 启动 Flume 时,需要指定配置文件和 agent 名称。以下是一个启动 Flume 的示例命令: ```bash cd /path/to/flume/bin ./flume-ng agent --conf ../conf --conf-file ../conf/example.conf --name a1 ``` 在 Windows 环境下,可以使用 PowerShell 启动 Flume: ```powershell cd E:\apache-flume-1.11.0-bin\bin powershell.exe -NoProfile -InputFormat none -ExecutionPolicy unrestricted -File E:\apache-flume-1.11.0-bin\bin\flume-ng.ps1 agent -conf ../conf -conf-file ../conf/example.conf -name a1 ``` 启动后,可以通过 `telnet` 或 `nc` 命令测试 Flume 的数据采集功能: ```bash telnet localhost 44444 ``` 输入任意文本后,Flume 会将数据通过 Sink 输出到日志文件中。 #### 4. Flume 的高级配置 Flume 支持多种 Source、Channel 和 Sink 的组合,以满足不同的数据采集需求。例如,可以使用 Kafka 作为 Source,HDFS 作为 Sink,构建一个高吞吐量的日志采集系统。 以下是一个使用 Kafka 作为 Source 的配置示例: ```properties # 定义 agent 的名称 a1.sources = r1 a1.channels = c1 a1.sinks = k1 # 配置 source(kafka) a1.sources.r1.type = org.apache.flume.source.kafka.KafkaSource a1.sources.r1.kafka.bootstrap.servers = localhost:9092 a1.sources.r1.topic = logs a1.sources.r1.group.id = flume-consumer-group # 配置 channel(file) a1.channels.c1.type = file a1.channels.c1.checkpointDir = /tmp/flume/checkpoint a1.channels.c1.dataDirs = /tmp/flume/data # 配置 sink(hdfs) a1.sinks.k1.type = hdfs a1.sinks.k1.hdfs.path = hdfs://localhost:9000/user/flume/logs/%Y-%m-%d a1.sinks.k1.hdfs.fileType = DataStream a1.sinks.k1.hdfs.writeFormat = Text # 绑定 source、channel 和 sink a1.sources.r1.channels = c1 a1.sinks.k1.channel = c1 ``` #### 5. Flume 的监控与调优 Flume 提供了丰富的监控功能,可以通过 JMX 或 Flume 的 Web UI 查看运行状态。此外,Flume 还支持日志级别调整、性能调优等功能,确保系统在高负载下仍能稳定运行。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值