IntelliJ IDEA下的Spark程序开发

本文详细介绍了如何使用Java和Scala SDK创建Spark项目,导入依赖,编写代码,并最终构建并运行Spark jar包。从创建项目到本地单线程运行,全程提供步骤指引,适合初学者和开发者深入理解Spark的集成开发流程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.创建项目:
选好javaSDK和scalaSDK



2.导入Sparkjar文件依赖
File-Project Structure-Libraries-jar 选择 spark路径下lib文件夹内的assembly jar包。



选择菜单中的“Run” ->“Edit Configurations”,修改“Main class”和“VM options”。 

在VM options中输入“-Dspark.master=local”,指示本程序本地单线程运行。


3.编写代码:


4.打jar包:
File-Project Structure-Artifacts-JAR-From modules with dependencies




注意名字这里要把“:jar”去掉


5.build Jar包:
Build-Build Artifacts...

选择build



假设jar的存放目录为/usr/Dery/Desktop/FilghtUSA.jar

则提交spark运行的代码为:
./spark-aubmit
--class com.liufan.sdut.flightUSA  /* 运行包下的类 */
--master spark://Master:7077  /* masterIP */
/usr/Dery/Desktop/FilghtUSA.jar /*jar包存放地址*/
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值