spark命令行提交任务携带参数问题

本文详细介绍了如何使用Spark提交作业,重点在于理解参数的配置,如`--class`指定主类,以及`--master`定义Spark集群。示例中展示了如何提交一个处理CSV文件的任务,从HDFS读取数据并写入到另一个HDFS路径。这个过程涵盖了Spark作业的基本提交步骤和文件路径设置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

参数要放在jar文件后面,要先写 --class 主类

例如

bin/spark-submit --class com.chenxin.day0310.demo1 --master spark://master:7077 /opt/jar/B_spark1-1.0-SNAPSHOT.jar hdfs://master:9000/jd_4706.csv hdfs://master:9000/accommodation_output
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值