大数据之数据仓库压缩处理

一、离线处理部分

1.1 SQOOP导入

  • 导入脚本
  • 在Sqoop配置选项中添加 compression-codec 选项,填报需要的压缩。
    Sqoop 官网介绍的是:Use Hadoop codec (default gzip)
sqoop import \
--connect "jdbc:mysql://192.168.xx.xxx:3306/info_safe?useUnicode=true&characterEncoding=utf-8"  \
--driver com.mysql.jdbc.Driver \
--username root \
--password  password \
--table tableName \
--num-mappers 1 \
--export-dir /youDataDir/* \
--input-fields-terminated-by '\001' \
--input-null-string '\\N'    \
--input-null-non-string '\\N' \
--compression-codec Snappy 

------------------------------------------------
-- 常用压缩类
org.apache.hadoop.io.compress.SnappyCodec
org.apache.hadoop.io.compress.GzipCodec
org.apache.hadoop.io.compress.BZip2Codec

1.2 Flume导入Hdfs

  • 以KafkaSink为例,关键点在于设置Sink输出时配置如下参数
a1.sinks.k1.hdfs.fil
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值