hive大数据倾斜总结

在做Shuffle阶段的优化过程中,遇到了数据倾斜的问题,造成了对一些情况下优化效果不明显。主要是因为在Job完成后的所得到的Counters是整个Job的总和,优化是基于这些Counters得出的平均值,而由于数据倾斜的原因造成map处理数据量的差异过大,使得这些平均值能代表的价值降低。Hive的执行是分阶段的,map处理数据量的差异取决于上一个stage的reduce输出,所以如何将数据均匀的分配到各个reduce中,就是解决数据倾斜的根本所在。规避错误来更好的运行比解决错误更高效。在查看了一些资料后,总结如下。

1数据倾斜的原因

1.1操作:

关键词

情形

后果

Join

其中一个表较小,

但是key集中

分发到某一个或几个Reduce上的数据远高于平均值

大表与大表,但是分桶的判断字段0值或空值过多

这些空值都由一个reduce处理,灰常慢

group by

group by 维度过小,

某值的数量过多

处理某值的reduce灰常耗时

Count Distinct

某特殊值过多

处理此特殊值的reduce耗时

1.2原因:

1)、key分布不均匀

2)、业务数据本身的特性

3)、建表时考虑不周

4)、某些SQL语句本身就有数据倾斜

 

1.3表现:

任务进度长时间维持在99%(或100%),查看任务监控页面,发现只有少量(1个或几个)reduce子任务未完成。因为其处理的数据量和其他reduce差异过大。

单一reduce的记录数与平均记录数差异过大,通常可能达到3倍甚至更多。 最长时长远大于平均时长。

 

2数据倾斜的解决方案

2.1参数调节:

hive.map.aggr=true

Map 端部分聚合,相当于Combiner

hive.groupby.skewindata=true

有数据倾斜的时候进行负载均衡,当选项设定为 true,生成的查询计划会有两个 MR Job。第一个 MR Job 中,Map 的输出结果集合会随机分布到 Reduce 中,每个 Reduce 做部分聚合操作,并输出结果,这样处理的结果是相同的 Group By Key 有可能被分发到不同的 Reduce 中,从而达到负载均衡的目的;第二个 MR Job 再根据预处理的数据结果按照 Group By Key 分布到 Reduce 中(这个过程可以保证相同的 Group By Key 被分布到同一个 Reduce 中),最后完成最终的聚合操作。

 

2.2 SQL语句调节:

如何Join:

关于驱动表的选取,选用join key分布最均匀的表作为驱动表

做好列裁剪和filter操作,以达到两表做join的时候,数据量相对变小的效果。

大小表Join:

使用map join让小的维度表(1000条以下的记录条数) 先进内存。在map端完成reduce.

大表Join大表:

把空值的key变成一个字符串加上随机数,把倾斜的数据分到不同的reduce上,由于null值关联不上,处理后并不影响最终结果。

count distinct大量相同特殊值

count distinct时,将值为空的情况单独处理,如果是计算count distinct,可以不用处理,直接过滤,在最后结果中加1。如果还有其他计算,需要进行group by,可以先将值为空的记录单独处理,再和其他计算结果进行union。

group by维度过小:

采用sum() group by的方式来替换count(distinct)完成计算。

特殊情况特殊处理:

在业务逻辑优化效果的不大情况下,有些时候是可以将倾斜的数据单独拿出来处理。最后union回去。

 

3典型的业务场景

3.1空值产生的数据倾斜

场景:如日志中,常会有信息丢失的问题,比如日志中的 user_id,如果取其中的 user_id 和 用户表中的user_id 关联,会碰到数据倾斜的问题。

解决方法1: user_id为空的不参与关联(红色字体为修改后)

select * from log a
  join users b
  on a.user_id is not null
  and a.user_id = b.user_id
union all
select * from log a
  where a.user_id is null;

解决方法2 :赋与空值分新的key值

select *
  from log a
  left outer join users b
  on case when a.user_id is null then concat(‘hive’,rand() ) else a.user_id end = b.user_id;

结论:方法2比方法1效率更好,不但io少了,而且作业数也少了。解决方法1中 log读取两次,jobs是2。解决方法2 job数是1 。这个优化适合无效 id (比如 -99 , ’’, null 等) 产生的倾斜问题。把空值的 key 变成一个字符串加上随机数,就能把倾斜的数据分到不同的reduce上 ,解决数据倾斜问题。

 

3.2不同数据类型关联产生数据倾斜

场景:用户表中user_id字段为int,log表中user_id字段既有string类型也有int类型。当按照user_id进行两个表的Join操作时,默认的Hash操作会按int型的id来进行分配,这样会导致所有string类型id的记录都分配到一个Reducer中。

解决方法:把数字类型转换成字符串类型

select * from users a
  left outer join logs b
  on a.usr_id = cast(b.user_id as string)

3.3小表不小不大,怎么用 map join 解决倾斜问题

使用 map join 解决小表(记录数少)关联大表的数据倾斜问题,这个方法使用的频率非常高,但如果小表很大,大到map join会出现bug或异常,这时就需要特别的处理。 以下例子:

select * from log a
  left outer join users b
  on a.user_id = b.user_id;

users 表有 600w+ 的记录,把 users 分发到所有的 map 上也是个不小的开销,而且 map join 不支持这么大的小表。如果用普通的 join,又会碰到数据倾斜的问题。

解决方法:

select /*+mapjoin(x)*/* from log a
  left outer join (
    select  /*+mapjoin(c)*/d.*
      from ( select distinct user_id from log ) c
      join users d
      on c.user_id = d.user_id
    ) x
  on a.user_id = b.user_id;

假如,log里user_id有上百万个,这就又回到原来map join问题。所幸,每日的会员uv不会太多,有交易的会员不会太多,有点击的会员不会太多,有佣金的会员不会太多等等。所以这个方法能解决很多场景下的数据倾斜问题。


3.4大表join大表,业务场景如何优化

用户轨迹工程的性能瓶颈一直是etract_track_info,其中耗时大户主要在于trackinfo与pm_info进行左关联的环节,trackinfo与pm_info两张表均为GB级别,左关联代码块如下:
from trackinfo a
left outer join pm_info b
on (a.ext_field7 = b.id)
使用以上代码块需要耗时1.5小时。

优化流程
第一次优化
考虑到pm_info表的id是bigint类型,trackinfo表的ext_field7是string类型,其关联时数据类型不一致,默认的hash操作会按bigint型的id进行分配,这样会导致所有string类型的ext_field7集中到一个reduce里面,因此,改为如下:
from trackinfo a
left outer join pm_info b
on (cast(a.ext_field7as bigint) = b.id)
改动为上面代码后,效果仍然不理想,耗时为1.5小时。
第二次优化
考虑到trackinfo表的ext_field7字段缺失率很高(为空、字段长度为零、字段填充了非整数)情况,做进行左关联时空字段的关联操作实际上没有意义,因此,如果左表关联字段ext_field7为无效字段,则不需要关联,因此,改为如下:
from trackinfo a
left outer join pm_info b
on (a.ext_field7 is not null
and length(a.ext_field7) > 0
and a.ext_field7 rlike'^[0-9]+$'
and a.ext_field7 = b.id)
上面代码块的作用是,如果左表关联字段ext_field7为无效字段时(为空、字段长度为零、字段填充了非整数),不去关联右表,由于空字段左关联以后取到的右表字段仍然为null,所以不会影响结果。
改动为上面代码后,效果仍然不理想,耗时为50分钟。
第三次优化
想了很久,第二次优化效果效果不理想的原因,其实是在左关联中,虽然设置了左表关联字段为空不去关联右表,但是这样做,左表中未关联的记录(ext_field7为空)将会全部聚集在一个reduce中进行处理,体现为reduce进度长时间处在99%。
换一种思路,解决办法的突破点就在于如何把左表的未关联记录的key尽可能打散,因此可以这么做:若左表关联字段无效(为空、字段长度为零、字段填充了非整数),则在关联前将左表关联字段设置为一个随机数,再去关联右表,这么做的目的是即使是左表的未关联记录,它的key也分布得十分均匀
from trackinfo a
left outer join pm_info b
on (
    casewhen (a.ext_field7 is not null
        andlength(a.ext_field7) > 0
        anda.ext_field7 rlike '^[0-9]+$')
    then
        cast(a.ext_field7as bigint)
    else
        cast(ceiling(rand() * -65535)as bigint)
    end= b.id
)
第三次改动后,耗时从50分钟降为了1分钟32秒,效果显著!

4总结

使map的输出数据更均匀的分布到reduce中去,是我们的最终目标。由于Hash算法的局限性,按key Hash会或多或少的造成数据倾斜。大量经验表明数据倾斜的原因是人为的建表疏忽或业务逻辑可以规避的。在此给出较为通用的步骤:

1、采样log表,哪些user_id比较倾斜,得到一个结果表tmp1。由于对计算框架来说,所有的数据过来,他都是不知道数据分布情况的,所以采样是并不可少的。

2、数据的分布符合社会学统计规则,贫富不均。倾斜的key不会太多,就像一个社会的富人不多,奇特的人不多一样。所以tmp1记录数会很少。把tmp1和users做map join生成tmp2,把tmp2读到distribute file cache。这是一个map过程。

3、map读入users和log,假如记录来自log,则检查user_id是否在tmp2里,如果是,输出到本地文件a,否则生成<user_id,value>的key,value对,假如记录来自member,生成<user_id,value>的key,value对,进入reduce阶段。

4、最终把a文件,把Stage3 reduce阶段输出的文件合并起写到hdfs。

 

如果确认业务需要这样倾斜的逻辑,考虑以下的优化方案:

1、对于join,在判断小表不大于1G的情况下,使用map join

2、对于group by或distinct,设定 hive.groupby.skewindata=true

3、尽量使用上述的SQL语句调节进行优化

### Hive大数据相关面试题整理 以下是关于 Hive大数据的一些常见面试题目及其解答: #### 1. **Hive 是什么?它的主要用途是什么?** Hive 是一种基于 Hadoop 的数据仓库工具,用于大规模数据分析。它可以将结构化的数据映射到数据库表中,并支持类 SQL 查询语言(称为 HiveQL)。通过 Hive,用户可以在不熟悉底层 MapReduce 或 Spark 编程的情况下轻松查询海量数据[^1]。 --- #### 2. **Hive 中的元数据存储在哪里?为什么这样设计?** Hive 的元数据通常存储在关系型数据库管理系统(RDBMS)中,例如 MySQL 或 Derby。这种设计的原因在于 RDBMS 能够高效处理频繁的更新、修改和读取操作,而这些操作如果放在分布式文件系统(如 HDFS)上会非常低效[^3]。 --- #### 3. **Hive 的架构组成有哪些部分?各部分的作用是什么?** Hive 架构主要包括以下几个组件: - 用户接口 Client:提供与用户的交互界面。 - 元数据存储 Metastore:保存 Hive 表的相关信息,如表名、列定义、分区字段等。 - 驱动器 Driver:由解析器、编译器、优化器和执行器构成,负责将 SQL 转换为可执行的任务并提交给计算框架。 - 计算引擎:通常是 MapReduce 或 Spark,用于实际执行任务。 - 存储层:使用 HDFS 进行数据持久化存储[^4]。 --- #### 4. **Hive 内部表和外部表的区别是什么?** | 特性 | 内部表 | 外部表 | |--------------------|--------------------------------|-------------------------------| | 数据删除 | 删除表时也会删除对应的数据 | 删除表时不删除数据 | | 数据位置 | 默认存放在 `/user/hive/warehouse` 下 | 可指定任意路径 | | 使用场景 | 更适合管理自有数据 | 常用于访问已有数据而不影响原数据 | 这一特性使得外部表非常适合与其他系统共享数据。 --- #### 5. **如何解决 Hive 查询中的数据倾斜问题?** 数据倾斜是指某些 key 对应的数据量远大于其他 key,从而导致任务分配不平衡。常见的解决方案包括: - 添加随机前缀来打散 key 分布。 - 合理设置 reduce 数量以减少单个 task 的负载。 - 利用 skew join 提供的参数调整倾斜行为[^2]。 --- #### 6. **Hive 支持哪些类型的连接方式?它们的特点分别是什么?** Hive 主要支持以下几种连接方式: - **Map-side Join**:适用于小表与大表之间的关联,性能较高但受限于内存大小。 - **Reduce-side Join**:通用性强,能处理任意规模的表,但在 shuffle 阶段可能会引入额外开销。 - **Bucketed Map Join**:当两个表都被分桶且满足特定条件时可用,效率高。 - **Skew Join Optimization**:针对存在严重数据倾斜的情况启用特殊优化策略。 --- #### 7. **什么是 Hive 的分区和分桶技术?两者有何区别?** - **分区 Partitioning**:按某个字段划分数据子集,便于快速过滤掉不需要扫描的部分。优点是可以显著提升查询速度;缺点是可能导致过多的小文件。 - **分桶 Bucketing**:依据哈希值将记录均匀分布到固定数量的 bucket 文件里。有助于抽样统计以及更高效的 join 操作。 --- #### 8. **Hive 如何实现数据压缩?常用的压缩算法有哪些?** 为了节省磁盘空间并加速 I/O 密集型作业,可以通过配置开启压缩功能。常用算法有 Gzip、Snappy、LZO 等。需要注意的是不同编码方案对 CPU 占用率的影响各异,在实践中需权衡利弊后选用最合适的选项。 --- #### 9. **Hive 的 ORC 格式相比传统文本格式有什么优势?** ORC (Optimized Row Columnar) 是一种专为大数据环境优化的二进制文件格式,具备如下特点: - 支持复杂的嵌套数据模型; - 自带索引机制以便跳过无关区块; - 内置轻量化压缩能力降低传输成本; - 显著提高读写吞吐量。 --- #### 10. **Hive 性能调优可以从哪几个方面入手?** - 合适的选择输入输出格式(TextFile vs SequenceFile vs ORC/ORC Snappy)。 - 设置合理的 map/reduce 并发度 (`set hive.exec.reducers.bytes.per.reducer`)。 - 开启 CBO(Cost-Based Optimizer),让 Hive 自动生成最佳执行计划。 - 应用物化视图缓存重复计算的结果集。 - 尽可能利用广播变量代替常规 join 减少网络流量消耗。 --- ```sql -- 示例代码展示如何创建一个带有分区和分桶的表 CREATE TABLE IF NOT EXISTS sales ( id INT, amount DOUBLE ) PARTITIONED BY (year STRING, month STRING) CLUSTERED BY(id) INTO 16 BUCKETS STORED AS ORC; ``` --- ###
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值