spark 大数据 LR测试

本文提供了一个使用Spark进行大数据处理的具体配置示例,包括如何设置Spark任务的多个参数,如内存分配、执行器数量等,并展示了如何提交Spark作业。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

#!/bin/bash

size="120Y*10W"
date1=`date +%F_%H-%M-%S`
config="spark-submit \
--jars /data0/work_space/service/spark-2.0.0-bin-hadoop2.4/jars/hadoop-lzo-0.4.15.jar \
--master yarn \
--deploy-mode client \
--num-executors 100 \
--driver-memory 7g \
--executor-cores 4 \
--executor-memory 7g \
--class com.weibo.datasys.pipeline.Runner \
weispark-ml-0.5.0-SNAPSHOT.jar pipeline.xml [5]
"
echo $config
echo ===========================================
spark-submit \
--jars /data0/work_space/service/spark-2.0.0-bin-hadoop2.4/jars/hadoop-lzo-0.4.15.jar \
--master yarn \
--deploy-mode client \
--num-executors 100 \
--driver-memory 7g \
--executor-cores 4 \
--executor-memory 7g \
--conf spark.driver.maxResultSize=3g \
--conf spark.ui.retainedJobs=2 \
--conf spark.ui.retainedStages=2 \
--conf spark.worker.ui.retainedExecutors=5 \
--conf spark.worker.ui.retainedDrivers=5 \
--conf spark.eventLog.enabled=false \
--class com.weibo.datasys.pipeline.Runner \
weispark-ml-0.5.0-SNAPSHOT.jar pipeline.xml [5]
date2=`date +%F_%H-%M-%S`
echo ===========================================
echo date start : $date1
echo data size : $size
echo config : $config
echo date ended : $date2

转载于:https://www.cnblogs.com/suanec/p/6169895.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值