电商数仓3.0 LZO压缩配置

本文档详细介绍了如何在Hadoop 3.1.3集群上配置LZO压缩,包括将lzo.jar添加到指定目录,更新core-site.xml配置,创建LZO文件索引以及解决YARN内存限制问题。通过这些步骤,可以实现数据的高效压缩和分发,并处理运行时可能出现的内存超出问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

资料

lzo.jar链接:https://pan.baidu.com/s/13PtZPMvmRLXn243hS1X-pQ
提取码:v6t6

放置Jar包固定位置

将编译好后的hadoop-lzo-0.4.20.jar 放入hadoop-3.1.3/share/hadoop/common/

[scorpion@warehouse102 02_hadoop]$ mv hadoop-lzo-0.4.20.jar /opt/module/hadoop-3.1.3/share/hadoop/common/

在这里插入图片描述

core-site.xml增加配置支持LZO压缩

[scorpion@warehouse102 hadoop]$ clear
[scorpion@warehouse102 hadoop]$ pwd
/opt/module/hadoop-3.1.3/etc/hadoop
[scorpion@warehouse102 hadoop]$ vim core-site.xml 


<property>
        <name>io.compression.codecs</name>
        <value>
            org.apache.hadoop.io.compress.GzipCodec,
            org.apache.hadoop.io.compress.DefaultCodec,
            org.apache.hadoop.io.compress.BZip2Codec,
            org.apache.hadoop.io.compress.SnappyCodec,
            com.hadoop.compression.lzo.LzoCodec,
            com.hadoop.compression.lzo.LzopCodec
        </value>
    </property>

    <property>
        <name>io.compression.codec.lzo.class</name>
        <value>com.hadoop.compression.lzo.LzoCodec</value>
    </property>

在这里插入图片描述

分发同步

// 分发lzo.jar
[scorpion@warehouse102 02_hadoop]$ cd /opt/module/hadoop-3.1.3/share/hadoop/common/
[scorpion@warehouse102 common]$ pwd
/opt/module/hadoop-3.1.3/share/hadoop/common
[scorpion@warehouse102 common]$ xsync ./hadoop-lzo-0.4.20.jar 
// 分发core配置文件
[scorpion@warehouse102 hadoop]$ cd /opt/module/hadoop-3.1.3/etc/hadoop/
[scorpion@warehouse102 hadoop]$ xsync ./core-site.xml 

压缩选择

  1. map输入端:考虑数据量,数据量小选压缩快的,数据量大选择是否能切片(bzip2直接能够切片 或者 lzo需要创建索引)
  2. map输出端:考虑速度,lzo使用最多
  3. reduce输出端:如果是需要数据永久保存,则压缩比越小越好;如果是下一个mapreduce输入,则回到第一点的map输入端也就是考虑数据量

LZO创建索引

创建LZO文件的索引,LZO压缩文件的可切片特性依赖于其索引,故我们需要手动为LZO压缩文件创建索引。若无索引,则LZO文件的切片只有一个。

测试数据链接:https://pan.baidu.com/s/1aWTmRtgdTmUp7kz8jYCYiw
提取码:kjea

// 文件后缀必须为.lzo
[scorpion@warehouse102 hadoop-3.1.3]$ hadoop fs -mkdir /input
[scorpion@warehouse102 hadoop-3.1.3]$ hadoop fs -put bigtable.lzo /input
[scorpion@warehouse102 hadoop-3.1.3]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/common/hadoop-lzo-0.4.20.jar  com.hadoop.compression.lzo.DistributedLzoIndexer /input/bigtable.lzo

在这里插入图片描述

测试

// 从INFO mapreduce.JobSubmitter: number of splits:2  》 2个切片 
[scorpion@warehouse102 hadoop-3.1.3]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount -Dmapreduce.job.inputformat.class=com.hadoop.mapreduce.LzoTextInputFormat /input /output2

在这里插入图片描述

任务报错解决

Container [pid=8468,containerID=container_1594198338753_0001_01_000002] is running 318740992B beyond the ‘VIRTUAL’ memory limit. Current usage: 111.5 MB of 1 GB physical memory used; 2.4 GB of 2.1 GB virtual memory used. Killing container.
Dump of the process-tree for container_1594198338753_0001_01_000002 :

解决办法:
修改集群节点所有的yarn-site.xml文件,增加如下配置后重启集群

<!--是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接将其杀掉,默认是true -->
<property>
   <name>yarn.nodemanager.pmem-check-enabled</name>
   <value>false</value>
</property>

<!--是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认是true -->
<property>
   <name>yarn.nodemanager.vmem-check-enabled</name>
   <value>false</value>
</property>
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值