spark on hive 参数

set hive.execution.engine=spark;
set spark.app.name=test9999;
set spark.executor.cores=5;
set spark.executor.memory=20G;
set spark.executor.instances=5;
set spark.driver.memory=5G;
set spark.memory.fraction=0.9;
–定义了 Spark 作业中每个 stage 的默认 task 数量。 Spark 官方建议的设置原则是,将spark.default.parallelism 设置为 num-executors * executor-cores 的 2 到 3 倍。
spark.default.parallelism=50;
set hive.merge.sparkfiles=true;
–是否自动转换为mapjoin
set hive.auto.convert.join=true;
–小表的最大文件大小,默认为25000000,即25M
set hive.mapjoin.smalltable.filesize=25000000;
–是否将多个mapjoin合并为一个
set hive.auto.convert.join.noconditionaltask=true;
–多个mapjoin转换为1个时,所有小表的文件大小总和的最大值。
set hive.auto.convert.join.noconditionaltask.size=25000000;

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值