Flume部署

Flume是一个高可用、高可靠、分布式的海量日志采集系统,用于数据收集、聚合和传输。本文介绍了如何配置和启动Flume,包括网络监听和文件监听的设置,以及如何验证其工作状态。

flume

 

(日志收集系统)

 编辑

FlumeCloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。


Flume版本:

 apache-flume-1.8.0-bin.tar.gz

把解压包放在HADOOP 的opt/下

解压 apache_flume-1.8.0-bin.tar.gz:

tar    -zxvf     apache-flume-1.8.0-bin.tar.gz

然后进入到opt下 放flume文件中的conf目录下,创建一个a1.conf文件

进去之后定义:sinkschannelssources

#定义agent的source channel sinks
a1.sources = sr1
a1.channels = ch1
a1.sinks = log1

#设置source的参数

a1.sources.sr1.type = netcat   #对网络监听  

a1.sources.sr1.bind = python5 #主机名  

a1.sources.sr1.port = 44444  



#设置sink参数
a1.sinks.log1.type = logger


#设置channel的参数
a1.channels.ch1.type = memory
#把source和sink 通过channel连接在一起
a1.sources.sr1.channels = ch1

a1.sinks.log1.channel = ch1

然后启动agent,复制这段代码: ./bin/flume-ng agent -c conf -f conf/a1.conf -n a1-Dflume.root.logger=INFO,console然后回车


然后新建一个新的选项卡 ,输入telnet python5 44444

就可以随便输入进行网络监听,如果时间过长会自动断开

接下来文件监听:

1.在hadoop下创建一个目录,我的目录叫zhangsong:


2.在conf 里打开a1.conf

修改成以下:

会发现我们只修改了 sources


3.回到flume目录下然后启动agent还是执行刚才的代码:


4复制一个ssh通道,拷贝一个文件到 zhangsong目录下


5监听文件成功:


去zhangsong目录下会发现 t8这个文件:

监听目录:

监听目录和以上不一样,需要我们在conf里新建一个文件  a2.conf

1 复制a1.conf里的代码过去,然后修改sink:


2重新启动agent,启动的时候注意名字 我们现在叫a2.conf

3拷贝一个文件到zhangsong目录下,打开python/50070,去user/hadoop/会发现多了一个flumedir的目录


好的,针对您的问题,我可以给出以下的回答: Flume是一个分布式的、可靠的、高可用的海量日志采集、聚合和传输的系统。它可以将多种数据源的数据采集到集中式的数据存储系统中,例如Hadoop HDFS、HBase、Kafka等。下面是Flume部署及数据采集准备的步骤: 1. 安装Flume 首先需要从Apache Flume官网(http://flume.apache.org/)下载Flume的二进制安装包,根据所需的版本进行下载。下载完成后,解压缩到指定目录,然后进行配置。 2. 配置Flume Flume的配置文件是一个properties文件,需要根据具体的需求进行配置。主要包括数据源、数据通道和数据存储三部分的配置。其中,数据源可以是多种类型的数据源,例如日志文件、网络数据等;数据通道可以是多种类型的数据通道,例如内存通道、文件通道、Kafka通道等;数据存储可以是多种类型的数据存储,例如HDFS、HBase等。 3. 启动Flume 启动Flume可以使用以下命令: ``` bin/flume-ng agent --conf-file conf/flume.conf --name a1 -Dflume.root.logger=INFO,console ``` 其中,--conf-file指定Flume的配置文件,--name指定Flume的名称,-Dflume.root.logger指定日志输出级别。 4. 配置数据源 针对不同的数据源,Flume有不同的采集方式。例如,针对日志文件,可以使用tail源来实时采集;针对网络数据,可以使用Avro源来采集;针对消息队列,可以使用Kafka源来采集。 5. 配置数据通道 针对不同的数据通道,Flume有不同的配置方式。例如,针对内存通道,可以指定通道的容量和事务大小;针对文件通道,可以指定文件的最大大小和最大文件数;针对Kafka通道,可以指定Kafka的Topic和Broker列表等。 6. 配置数据存储 针对不同的数据存储,Flume有不同的配置方式。例如,针对HDFS存储,可以指定HDFS的NameNode和路径;针对HBase存储,可以指定HBase的Zookeeper地址和表名等。 7. 测试数据采集 完成以上步骤后,可以测试Flume的数据采集功能。可以使用nc命令向Flume发送数据,也可以直接写入日志文件进行测试。测试成功后,即可正式开始使用Flume进行数据采集。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值