Flume 部署规划

Flume 是一套分布式的日志收集系统,支持各种数据输出,并支持将数据合并导入hadoop

 

Flume 安装需要一定的软件环境:

1.jdk 1.6+

2.hadoop 安装包

3.flume 软件包

 

jdk 可以从网上下载,解压后在 /etc/profile 中增加java_home的环境变量即可

hadoop 安装包可以到 https://ccp.cloudera.com/display/SUPPORT/CDH3+Downloadable+Tarballs 下载

安装完成需要声明这些变量:

export JAVA_HOME=/usr/local/jdk

export PLATFORM_ROOT=/home/pplive/platform

export HADOOP_HOME=$PLATFORM_ROOT/hadoop

export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH

export HADOOP_CONF_DIR=$PLATFORM_ROOT/config

export LOG_ROOT=/home/pplive/logs

可放入 /etc/profile 中自动执行

 

其他具体的安装可以咨询单超

 

 

flume 整体安装过程:

文件下载也是在:

https://ccp.cloudera.com/display/SUPPORT/CDH3+Downloadable+Tarballs

下载完成解压至  /usr/local/flume

申明变量:

export FLUME_CONF_DIR=/usr/local/flume/conf/

可以放入 /etc/profile

 

flume 配置:

修改 /usr/local/flume/conf/flume-site.xml

修改 flume.master.serversvaluemaster ip或主机名

flume-conf.xml 为一些详细配置,如果不关注性能可以不配

 

 

flume 启动

先启动 master,在启动 cool agent

 

master 启动方式:

/usr/local/flume/bin/flume master

启动后,通过 http://IP:35871/flumemaster.jsp

来查看master 方式

collagent 启动方式

/usr/local/flume/bin/flume node -n 名字  # 可在配置文件中定义

启动后可以在master的管理界面中看到这台机器。

其他启动后也类似。

执行完成后可以看到发下所有的节点,及节点情况

然后可以通过 config来配置各各节点的角色。

 

比如:

 

这个配置使 agent01 ,通过tail的方式把 /home/nginx/logs/2010/access.log的文件读出来。

然后以 end -to-end 的方式传输到 172.16.3.103 20000 端口上。

如果有多台机器,只需要改变机器名即可。可以将多台机器的日志汇总至172.16.3.103 20000 端口上。

下面的框是批量输入框,可以方便的批量配置一堆机器。

 

配置完成后就会有这样的一个状态表。

上面我还配置了一个接收节点

Souce collectorSource(20000) sink text("/tmp/logs",raw)

Flume会自动打开一个端口,并把收到的数据放入/tmp/logs中。

 

上面就是一个简单的配置,如果需要将文件写入其他位置或hdfs可以通过写其他链接即可。

如果还有其他的需求可以从下面链接去查找。

http://archive.cloudera.com/cdh/3/flume/UserGuide/index.html

 

 

好的,针对您的问题,我可以给出以下的回答: Flume是一个分布式的、可靠的、高可用的海量日志采集、聚合和传输的系统。它可以将多种数据源的数据采集到集中式的数据存储系统中,例如Hadoop HDFS、HBase、Kafka等。下面是Flume部署及数据采集准备的步骤: 1. 安装Flume 首先需要从Apache Flume官网(http://flume.apache.org/)下载Flume的二进制安装包,根据所需的版本进行下载。下载完成后,解压缩到指定目录,然后进行配置。 2. 配置Flume Flume的配置文件是一个properties文件,需要根据具体的需求进行配置。主要包括数据源、数据通道和数据存储三部分的配置。其中,数据源可以是多种类型的数据源,例如日志文件、网络数据等;数据通道可以是多种类型的数据通道,例如内存通道、文件通道、Kafka通道等;数据存储可以是多种类型的数据存储,例如HDFS、HBase等。 3. 启动Flume 启动Flume可以使用以下命令: ``` bin/flume-ng agent --conf-file conf/flume.conf --name a1 -Dflume.root.logger=INFO,console ``` 其中,--conf-file指定Flume的配置文件,--name指定Flume的名称,-Dflume.root.logger指定日志输出级别。 4. 配置数据源 针对不同的数据源,Flume有不同的采集方式。例如,针对日志文件,可以使用tail源来实时采集;针对网络数据,可以使用Avro源来采集;针对消息队列,可以使用Kafka源来采集。 5. 配置数据通道 针对不同的数据通道,Flume有不同的配置方式。例如,针对内存通道,可以指定通道的容量和事务大小;针对文件通道,可以指定文件的最大大小和最大文件数;针对Kafka通道,可以指定Kafka的Topic和Broker列表等。 6. 配置数据存储 针对不同的数据存储,Flume有不同的配置方式。例如,针对HDFS存储,可以指定HDFS的NameNode和路径;针对HBase存储,可以指定HBase的Zookeeper地址和表名等。 7. 测试数据采集 完成以上步骤后,可以测试Flume的数据采集功能。可以使用nc命令向Flume发送数据,也可以直接写入日志文件进行测试。测试成功后,即可正式开始使用Flume进行数据采集。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值