hive的调优

本文详细介绍了Hive的性能优化技巧,包括Fetch抓取策略、MapReduce避免、本地模式启用、数据倾斜处理、Join操作优化、GroupBy与Count(Distinct)的优化、分区表管理以及数据倾斜的解决方法。强调了合理控制Map和Reduce任务的数量以提升效率,并提供了各种配置参数以适应不同场景。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Fetch抓取(Hive可以避免进行MapReduce)

fetch抓取,能够避免使用mr的,就尽量不要用mr,因为mr太慢了
set hive.fetch.task.conversion=more 表示我们的全局查找,字段查找,limit查找都不走mr
这个属性配置有三个取值 more minimal none 如果配置成none,所有的都要走mr程序

hive的本地模式:
set hive.exec.mode.local.auto=true 开启本地模式,解决多个小文件输入的时候,分配资源时间超过数据的计算时间
set hive.exec.mode.local.auto.inputbytes.max=51234560; 设置输入的数据临界值,如果小于这值都认为是小任务模式,启动本地模式来执行
set hive.exec.mode.local.auto.input.files.max=10; 设置输入文件个数的临界值,如果小于这个数量,那么也认为是小任务模式

hive表的优化

去重的优化:
select count(distinct s_id) from score;这种写法所有的去重数据都会在一个reduce当中去,造成数据处理比较慢
select count(1) from (select s_id from score group by s_id) bysid; 这种写法,使用了一个嵌套子查询,先对数据进行group by去重,然后再进行统计
尽量避免大sql,可以将一个很大的sql拆成多段,分步的去执行
大表join大表的优化:
空key的过滤
不过滤:
INSERT OVERWRITE TABLE jointable
SELECT a.* FROM nullidtable a JOIN ori b ON a.id = b.id;
结果:
No rows affected (152.135 seconds)
过滤:过滤掉我们所有的为null的id,使得我们的输入数据量变少
INSERT OVERWRITE TABLE jointable
SELECT a.* FROM (SELECT * FROM nullidtable WHERE id IS NOT NULL ) a JOIN ori b ON a.id = b.id;
结果:
No rows affected (141.585 seconds)
空key的转换
如果规定这些空key过滤不调,那么我们可以对空key进行转换
SELECT a.*
FROM nullidtable a
LEFT JOIN ori b ON CASE WHEN a.id IS NULL THEN ‘hive’ ELSE a.id END = b.id;
如果空key比较多,那么就会将大量的空key转换成 hive,那么就会遇到一个问题,数据倾斜
数据倾斜的表现形式:有一个reduce处理的数据量远远比其他reduce处理的数据量要大,造成其他的reduce数据都处理完了,这个还没处理完
怎么发现的数据倾斜,如何出现的数据倾斜,怎么解决的数据倾斜
空key的打散

	SELECT a.*
			FROM nullidtable a
			LEFT JOIN ori b ON CASE WHEN a.id IS NULL THEN concat('hive', rand()) ELSE a.id END = b.id;
		通过将空key打散成不同的随记字符串,就可以解决我们hive的数据倾斜的问题

map端的join

hive已经开启了自动的map端的join功能,不管是我们的大表join小表,还是小表join大表,都会将我们的小表加载到内存当中来
首先第一步:启动一个local的task,寻找哪个表的数据是小表数据

**hive的group by优化:**能在map端聚合的数据,就尽量在map端进行聚合
多加一层mr的程序,让我们的数据实现均衡的负载,避免数据的倾斜

count(distinct)的优化:
这种写法效率低下:SELECT count(DISTINCT id) FROM bigtable;
可以准换成这种写法:SELECT count(id) FROM (SELECT id FROM bigtable GROUP BY id) a;

笛卡尔积:任何时候都要避免笛卡尔积,避免无效的on条件
select from A left join B – on A.id = B.id

使用分区裁剪,列裁剪
分区裁剪:如果是我们的分区表,那么查询的时候,尽量带上我们的分区条件
列裁剪:尽量避免使用select * ,需要查询哪些列,就选择哪些列

动态分区调整
开启动态分区参数设置

(1)开启动态分区功能(默认true,开启)
set hive.exec.dynamic.partition=true;
(2)设置为非严格模式(动态分区的模式,默认strict,表示必须指定至少一个分区为静态分区,nonstrict模式表示允许所有的分区字段都可以使用动态分区。)
set hive.exec.dynamic.partition.mode=nonstrict;
(3)在所有执行MR的节点上,最大一共可以创建多少个动态分区。
set  hive.exec.max.dynamic.partitions=1000;
	(4)在每个执行MR的节点上,最大可以创建多少个动态分区。该参数需要根据实际的数据来设定。比如:源数据中包含了一年的数据,即day字段有365个值,那么该参数就需要设置成大于365,如果使用默认值100,则会报错。
set hive.exec.max.dynamic.partitions.pernode=100
(5)整个MR Job中,最大可以创建多少个HDFS文件。
	在linux系统当中,每个linux用户最多可以开启1024个进程,每一个进程最多可以打开2048个文件,即持有2048个文件句柄,下面这个值越大,就可以打开文件句柄越大
set hive.exec.max.created.files=100000;
(6)当有空分区生成时,是否抛出异常。一般不需要设置。
set hive.error.on.empty.partition=false;
分区表的数据加载两种方式:
	load  data  inpath  '/export/xxx' into table xxx partition(month = 'xxx')
	insert  overwrite table  xxx partition (month = 'xxx') select  xxx

使用动态分区动态的添加数据
如果要使用动态分区添加数据,最后一个字段一定要是我们的分区字段
INSERT overwrite TABLE ori_partitioned_target PARTITION (p_time)
SELECT id, time, uid, keyword, url_rank, click_num, click_url, p_time
FROM ori_partitioned;

数据倾斜

主要就是合理的控制我们的map个数以及reduce个数
第一个问题:maptask的个数怎么定的??
与我们文件的block块相关,默认一个block块就是对应一个maptask
第二个问题:reduceTask的个数怎么定的??
是我们自己手动设置的,爱设几个设几个,没人管你

第三个问题:是不是maptask的个数越多越好
不一定:有时候有些小文件,都要启动一个maptask,分配资源的时间超过了数据处理的时间
减少mapTask的个数:设置map端的小文件合并:使用combineHiveInputFormat来实现对我们小文件的合并,减少maptask的个数 或者使用本地模式也可以解决小文件的问题

1)参数设置(下面的API属于hadoop低版本的API)
set mapred.max.split.size=112345600;
set mapred.min.split.size.per.node=112345600;
set mapred.min.split.size.per.rack=112345600;
set hive.input.format= org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;
这个参数表示执行前进行小文件合并,前面三个参数确定合并文件块的大小,大于文件块大小128m的,按照128m来分隔,小于128m,大于100m的,按照100m来分隔,把那些小于100m的(包括小文件和分隔大文件剩下的),进行合并。

增加maptask的个数:当input的文件都很大,任务逻辑复杂,map执行非常慢的时候,可以考虑增加Map数,来使得每个map处理的数据量减少,从而提高任务的执行效率。我们可以多设置几个reduce,然后使用distribte by将我们的数据打散
set mapreduce.job.reduces =10;
create table a_1 as
select * from a
distribute by rand(123);
第四个问题:控制reduceTask的个数:
reduce个数并不是越多越好
1)过多的启动和初始化reduce也会消耗时间和资源;
2)另外,有多少个reduce,就会有多少个输出文件,如果生成了很多个小文件,那么如果这些小文件作为下一个任务的输入,则也会出现小文件过多的问题;
在设置reduce个数的时候也需要考虑这两个原则:处理大数据量利用合适的reduce数;使单个reduce任务处理数据量大小要合适;

			reduce个数设置方法:
				(1)每个Reduce处理的数据量默认是256MB
				hive.exec.reducers.bytes.per.reducer=256123456
				(2)每个任务最大的reduce数,默认为1009
				hive.exec.reducers.max=1009
				(3)计算reducer数的公式
				N=min(参数2,总输入数据量/参数1)

			直接凭感觉设置reduce的个数:
			set mapreduce.job.reduces = 15;

查看执行计划:
explain extended select * from course;

并行执行:有时候有些sql之间是不相关的,可以并行的一起执行,那么就可以用并行执行

严格模式: 如果开启hive的严格模式,有以下三个限制
1、分区表需要带上分区字段
2、order by 必须使用limit
3、笛卡尔积不能执行

jvm的重用:我们的container的里面的任务执行完成之后,不要马上释放资源,留着资源给下一个任务执行

推测执行:maptask的推测执行以及reducetask的推测执行:
一般都直接关闭maptask以及reducetask的推测执行
set mapreduce.map.speculative=false;关闭map端的推测执行
set mapreduce.reduce.speculative=false; 关闭reduce端的推测执行

压缩与存储:压缩:snappy 源始数据存储:TextFile
处理之后的数据存储:ORC PARQUET

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值