pyhton中,想像scala一样,对spark使用资源做指定,如:
spark-submit \
--principal $principal \
--keytab $keytab \
--name Test \
--master yarn --deploy-mode cluster \
--num-executors 10 \
--executor-cores 4 \
--executor-memory 16G \
--driver-memory 16G \
--conf spark.locality.wait=10 \
--conf spark.serializer="org.apache.spark.serializer.KryoSerializer" \
--conf spark.streaming.backpressure.enabled=true \
--conf spark.task.maxFailures=8 \
--conf spark.driver.maxResultSize=8G \
--conf spark.default.parallelism=500 \
--conf spark.sql.shuffle.partitions=300 \
--conf spark.sql.autoBroadc

最低0.47元/天 解锁文章
512

被折叠的 条评论
为什么被折叠?



