flume 写入hdfs 采用lzo 格式 教程

在使用Flume 1.7.0写入HDFS时遇到不支持Lzo压缩格式的问题。通过将Hadoop 2.7.3的`core-site.xml`配置文件放入Flume的`conf`目录,并添加Lzo相关的jar包到Flume的Hadoop共享库,解决了配置错误。具体步骤包括:1) 将`core-site.xml`放入Flume配置目录;2) 下载并添加`hadoop-lzo` jar到Hadoop的`/share/hadoop/common/`路径。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

问题环境: hadoop2.7.3  和 flume 1.7.0

1.首先我的flume是单独部署在一台主机的。没该主机没有部署hadoop

所以sink写入hdfs的时候 直接报错。于是我上传了hadoop2.x.x 版本 配置了下hadoop_home path 环境变量。搞定。

2.在编写flume 写入hdfs的时候得知公司hdfs用的是lzo的文件格式储存

我直接用原生的flume 在编写属性

a1.sinks.s1.hdfs.fileType = CompressedStream
a1.sinks.s1.hdfs.codeC = lzo

的时候  启动flume报错

error during configuration
java.lang.IllegalArgumentException: Unsupported compression codec Lzop.  Please choose from: [None, BZip2Codec, DefaultCodec, DeflateCodec, GzipCodec, Lz4Codec, SnappyCodec]
at org.apache.flume.sink.hdfs.HDFSEventSink.getCodec(HDFSEventSink.java:334)
at org.apache.flume.sink.hdfs.HDFSEventSink.configure(HDFSEventSink.java:237)
at org.apache.flume.conf.Configurables.configure(Configurables.java:41)
at org.apache.flume.nod

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值