hive的压缩配置

本文详细介绍了如何通过配置Hive和Hadoop的压缩方式来提高大数据处理效率,包括设置压缩参数、选择压缩算法以及对MapReduce阶段进行优化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


在数据量特别大的情况下,数据来自hive的MapReduce查询,
发现效率特别慢在hive上使用insert overwrite local  directory "XXX" select将数据导入到本地的HDFS上时直接报错,
那么我那么就需要在hive和hadoop上配置压缩方式

在执行hive的类sql语句之前,需开启一下配置
2.对hive开启以下配置

设置开启hive的压缩
set hive.exec.compress.output=true;  

设置开启mapreduce的压缩

set  mapreduce.output.fileoutputformat.compress=true;

配置reduce输出使用的压缩类型默认的是RECORD
set mapreduce.output.fileoutputformat.compress.type=BLOCK;

配置压缩算法如果是需要效率的话建议使用 Cloudera的org.apache.hadoop.io.compress.SnappyCodec算法
set mapreduce.output.fileoutputformat.compress.codec=org.apache.hadoop.io.compress.GzipCodec;  

对map阶段进行配置
set mapreduce.map.output.compress=true;  
配置压缩算法如果是需要效率的话建议使用 Cloudera的org.apache.hadoop.io.compress.SnappyCodec算法
set mapreduce.map.output.compress.codec=org.apache.hadoop.io.compress.GzipCodec;

1.对hadoop的core-site.xml配置如下
<property>  
    <name>io.compression.codecs</name>  
    <value>org.apache.hadoop.io.compress.GzipCodec,
    org.apache.hadoop.io.compress.DefaultCodec,
    org.apache.hadoop.io.compress.BZip2Codec
    </value>  
</property>

还可以添加如下配置
org.apache.hadoop.io.compress.GzipCodec,
org.apache.hadoop.io.compress.Lz4Codec,
com.hadoop.compression.lzo.LzopCodec

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值