Flume配置文件(flume-site.conf)

Flume配置详解
本文详细介绍了Flume配置项的功能及用途,包括watchdog重启限制、node心跳周期、agent日志管理、collector数据处理、master集群配置等核心内容。

Flume配置文件(flume-site.conf)

1、 watchdog

watchdog.restarts.max

watchdog每分钟重启的最大数???

2、 common node

flume.config.heartbeat.period

node发送心跳周期,默认5000(毫秒)

flume.node.status.port

node web端口

flume.node.heartbeat.backoff.ceiling

node向master发送心跳之后等待反馈的最大时长,默认60000(毫秒)

flume.node.http.autofindport

如果已有node启动,允许第二个node自动选择一个未使用的端口做web服务。多个node的界面端口从35862、35863向后延续

3、agent

flume.agent.logdir

agent日志路径

flume.agent.logdir.maxage

当前处于打开状态agent日志文件收集信息的时长,在这之后该日志文件将会被关闭,并将数据发送到网络,默认10000(毫秒)

flume.agent.logdir.retransmit

在end-to-end模式下agent向collector发送数据失败后再次发送的间隔时长,默认60000(毫秒),建议至少是flume.collector.roll.millis的两倍

flume.agent.failover.backoff.initial

当primary sink(可以认为是第一collector)故障后,重启primary sink的一个延迟时间,在此期间,agent将把数据发送到secondary sink(可能是第二collector)

flume.agent.failover.backoff.max

在一定时限内尝试链接故障节点失败后,agent将把数据转发向备用节点

4、collector

flume.collector.event.host

默认collector地址

flume.collector.port

默认collector端口

flume.collector.dfs.dir

最终数据发向目录(默认),可以是本地,可以是hdfs,默认是/tmp

flume.collector.dfs.compress.codec

压缩格式GzipCodec, DefaultCodec (deflate), BZip2Codec,默认是None

flume.collector.roll.millis

hdfs文件切换(关闭后新建)的时长

flume.collector.output.format

collector发送数据格式avro, avrojson(默认), avrodata…

5、master

flume.master.servers

用逗号分隔多个master地址列表

flume.master.store

master配置存储方式(zookeeper/memory) zookeeper保证master的配置在多master节点之间同步,memory则保存在内存中,其配置随着master宕机而丢失

flume.master.serverid

master的唯一标识

flume.master.http.port

http端口

flume.master.heartbeat.missed.max

判断节点失效的最大未达心跳数

flume.master.savefile

当前flume配置文件的路径,默认conf/current.flume

flume.master.savefile.autoload

启动时是否加载current.flume,默认false

flume.master.gossip.period

master通信周期(毫秒)

flume.master.heartbeat.rpc

THRIFT/AVRO

flume.event.rpc

THRIFT/AVRO

flume.report.server.rpc.type

THRIFT/AVRO

6、zookeeper

flume.master.zk.logdir

zookeeper日志路径

7、thrift

flume.thrift.socket.timeout.ms

thrift网络连接超时时间(毫秒)


Flume安装 一、解压 tar -zxvf apache-flume-1.9.0-bin.tar.gz -C /opt/module/ 二、命名 cd /opt/module/ mv apache-flume-1.9.0-bin/ flume-1.9.0 三、在flume目录下conf中新建文件 cd flume-1.9.0/conf/ vi master.conf 添加数据(可对conf目录下的flume-conf.properties.template文件进行对照参考) #定义各个组件 #下面的a1就是agent的代号,source叫r1, channel叫c1, sink叫k1 a1.sources=r1 a1.channels=c1 a1.sinks=k1 #为source赋值,如果来源是kafka,type则为org.apache.flume.source.kafka a1.sources.r1.type = spooldir a1.sources.r1.spoolDir = /var/log/hdfstest //监听文件夹 a1.sinks.k1.type = hdfs a1.sinks.k1.hdfs.path= hdfs://master:8020/tmp/flume #为channel赋值 使用内存缓冲区域做数据的临时缓存 a1.channels.c1.type=memory #配置sink a1.sinks.k1.type=logger #通过channel c1将source r1和sink k1关联起来 a1.sources.r1.channels=c1 a1.sinks.k1.channel=c1 删除flume的lib目录下的guava-11.0.2.jar rm -rf guava-11.0.2.jar 四、启动进程: 进入flume目录 创建hdfs存储目录/tmp/flume (启动hadoop后,查看后,再来建立) Hdfs dfs -mkdir -p /tmp/flume 进入flume目录 cd /opt/module/flume-1.9.0 bin/flume-ng agent -n a1 -c conf -f conf/master.conf -Dflume.root.logger=INFO,console 如图显示为正常启动情况 进入hadoop的log目录,将namenod或datanode的log文件选择其中一个上传到 自己定义的监听文件夹 ——>/var/log/hdfstest 例如:mv hadoop-root-namenode-master.log /var/log/hdfstest/ hdfs dfs -ls /tmp/flume 有问题这个
最新发布
10-15
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值