yarn集群客户端gateway常用限制

本文介绍了Spark集群的默认配置方式及依赖包的部署方法,并详细解析了如何通过配置文件调整Hive在本地JVM中的内存大小。这些配置对于优化Spark作业的运行效率和Hive的性能至关重要。

spark默认集群模式,省略上传依赖包过程:spark-default.sh

spark.yarn.jars hdfs:///${PATH}/sparkJar/jars/*.jar
spark.submit.deployMode cluster

hive限定本地JVM内存大小:hive-default.xml

  <property>
    <name>hive.mapred.local.mem</name>
    <!--<value>10230 M K B</value>-->
    <!--<value>default Byte</value>-->
    <value>10230000000</value>
    <description>mapper/reducer memory in local mode</description>
  </property>

 

转载于:https://www.cnblogs.com/suanec/p/8522288.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值