Flume配置参数说明

本文详细介绍了 Flume 的 HDFS 和 HBase Sink 配置选项,包括如何配置写入 HDFS 的路径、文件名、压缩格式等参数,以及如何将数据写入 HBase 数据库的具体设置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

channel

Type:hdfs

path:写入hdfs的路径,需要包含文件系统标识,比如:hdfs://namenode/flume/webdata/

可以使用flume提供的日期及%{host}表达式。

filePrefix: 默认值:FlumeData 写入hdfs的文件名前缀,可以使用flume提供的日期及%{host}表达式。

fileSuffix:写入hdfs的文件名后缀,比如:.lzo .log等。

inUsePrefix:临时文件的文件名前缀,hdfs sink会先往目标目录中写临时文件,再根据相关规则重命名成最终目标文件;

inUseSuffi: 默认值:.tmp  临时文件的文件名后缀。

rollInterval:  默认值:30  hdfs sink间隔多长将临时文件滚动成最终目标文件,单位:秒;

如果设置成0,则表示不根据时间来滚动文件;

注:滚动(roll)指的是,hdfs sink将临时文件重命名成最终目标文件,并新打开一个临时文件来写入数据;

rollSize  默认值:1024 当临时文件达到该大小(单位:bytes)时,滚动成目标文件;

如果设置成0,则表示不根据临时文件大小来滚动文件;

rollCount  默认值:10  events数据达到该数量时候,将临时文件滚动成目标文件;

如果设置成0,则表示不根据events数据来滚动文件;

idleTimeout  默认值:0

当目前被打开的临时文件在该参数指定的时间(秒)内,没有任何数据写入,则将该临时文件关闭并重命名成目标文件;

batchSize   默认值:100  每个批次刷新到HDFS上的events数量;

codeC  文件压缩格式,包括:gzip, bzip2, lzo, lzop, snappy

fileType  默认值:SequenceFile

文件格式,包括:SequenceFile, DataStream,CompressedStream 当使用DataStream时候,文件不会被压缩,不需要设置hdfs.codeC;当使用CompressedStream时候,必须设置一个正确的hdfs.codeC值;

maxOpenFiles  默认值:5000 最大允许打开的HDFS文件数,当打开的文件数达到该值,最早打开的文件将会被关闭;

minBlockReplicas  默认值:HDFS副本数   写入HDFS文件块的最小副本数。该参数会影响文件的滚动配置,一般将该参数配置成1,才可以按照配置正确滚动文件。

writeFormat  sequence文件的格式。包含:Text, Writable(默认)

callTimeout  默认值:10000 执行HDFS操作的超时时间(单位:毫秒);

threadsPoolSize  默认值:10  hdfs sink启动的操作HDFS的线程数。

rollTimerPoolSize  默认值:1  hdfs sink启动的根据时间滚动文件的线程数。

kerberosPrincipal: HDFS安全认证kerberos配置;

kerberosKeytab

HDFS安全认证kerberos配置;

proxyUser  代理用户

round 默认值:false  是否启用时间上的舍弃,这里的舍弃,类似于四舍五入,后面再介绍。如果启用,则会影响除了%t的其他所有时间表达式;

roundValue  默认值:1   时间上进行舍弃的值;

roundUnit  默认值:seconds 时间上进行舍弃的单位,包含:second,minute,hour

示例:

a1.sinks.k1.hdfs.path = /flume/events/%y-%m-%d/%H%M/%S

a1.sinks.k1.hdfs.round = true

a1.sinks.k1.hdfs.roundValue = 10

a1.sinks.k1.hdfs.roundUnit = minute

当时间为2015-10-16 17:38:59时候,hdfs.path依然会被解析为:

/flume/events/20151016/17:30/00

因为设置的是舍弃10分钟内的时间,因此,该目录每10分钟新生成一个。

timeZone

默认值:Local Time  时区。

useLocalTimeStamp 默认值:flase  是否使用当地时间。

closeTries:默认值:0

hdfs sink关闭文件的尝试次数;

如果设置为1,当一次关闭文件失败后,hdfs sink将不会再次尝试关闭文件,这个未关闭的文件将会一直留在那,并且是打开状态。

设置为0,当一次关闭失败后,hdfs sink会继续尝试下一次关闭,直到成功。

retryInterval

默认值:180(秒)

hdfs sink尝试关闭文件的时间间隔,如果设置为0,表示不尝试,相当于于将hdfs.closeTries设置成1.

Serializer  默认值:TEXT

序列化类型。其他还有:avro_event或者是实现了EventSerializer.Builder的类名。

Hbase sink:hbase是一种数据库,可以储存日志,使用时需要指定存储日志的表名和列族名,然后agent就可以将收集到的日志逐条插入到数据库中。

tableName:要写入的HBase数据表名,不能为空;

columnFamily:数据表对应的列簇名,这个sink目前只支持一个列簇,不能为空;

batchSize:每次事务可以处理的最大Event数量,默认是100

eventSerializerType:用来将event写入HBase,即将event转化为put。默认是org.apache.flume.sink.hbase.SimpleHbaseEventSerializer,还有一个是RegexHbaseEventSerializer,即适合HBaseSinkSerializer只有这俩,否则自己定制;

serializerContext:是eventSerializerType的配置信息,就是配置文件中包含“serializer.”的项;

例子:

agent1.sinks = k1

agent1.sinks.k1.type = hbase

agent1.sinks.k1.table = flume

agent1.sinks.k1.columnFamily=fl_conf

agent1.sinks.k1.serializer=org.apache.flume.sink.hbase.RegexHbaseEventSerializer

### 编写Apache Flume配置文件 #### 配置文件基本结构 Flume配置文件是一个简单的键值对文件,通常以`.conf`结尾。每个agent可以有多个sources、channels和sinks,并通过特定的命名约定来关联这些组件。 #### 定义Agent名称 在配置文件的第一行定义使用的agent名字: ```properties a1.sources = r1 a1.sinks = k1 a1.channels = c1 ``` 这表示名为`a1`的agent有一个source (`r1`)、一个sink (`k1`) 和一个channel (`c1`) [^1]. #### 设置Source类型及其参数 对于使用exec类型的source收集日志数据的情况如下所示: ```properties a1.sources.r1.type = exec a1.sources.r1.command = tail -f /home/flume/apache-flume-1.7.0-bin/Hello.log ``` 这里指定了source `r1` 的类型为`exec`, 并设置了命令用于实时读取指定的日志文件中的新条目[^3]. #### 设定Channel类型及属性 接下来设置channel的相关信息,比如内存型channel: ```properties a1.channels.c1.type = memory a1.channels.c1.capacity = 1000 a1.channels.c1.transactionCapacity = 100 ``` 这段配置说明了channel `c1` 使用的是memory存储方式,同时设定了其容量以及事务处理能力[^4]. #### 指定Sink并连接到目标系统 最后一步是指定sink并将它链接至目的地,例如向控制台打印输出或发送给Kafka topic: ```properties a1.sinks.k1.type = logger # 或者如果是Kafka sink,则应如此配置: #a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink #a1.sinks.k1.topic = test_topic #a1.sinks.k1.brokerList = localhost:9092 ``` 上述例子展示了两种不同的sink配置方法——一种是简单地记录消息到本地日志(`logger`), 另外一个是更复杂的场景下将事件推送到Kafka集群中去. #### 关联Sources, Channels 和 Sinks 为了使整个pipeline工作起来还需要把各个部分连在一起: ```properties a1.sources.r1.channels = c1 a1.sinks.k1.channel = c1 ``` 这样就完成了从source经由channel再到sink的数据流动路径设定. #### 启动Agent 保存好配置文件之后就可以启动对应的flume agent实例了: ```bash $FLUME_HOME/bin/flume-ng agent --name a1 --conf ./conf --conf-file ./example.conf ``` 这条命令会依据刚才创建好的配置文件启动名为`a1`的agent.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值