spark1.4 Windows local调试环境搭建总结

本文详细介绍了如何在Windows环境下搭建Spark 1.4的本地调试环境,包括选择合适的Scala版本、配置Hadoop环境变量、设置IDEA项目等步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

spark1.4 Windows local调试环境搭建总结

1.scala版本
scala-2.10.4 官方推荐
scala-2.11.7【不推荐,非sbt项目、需要后加载】

2.spark版本
spark-1.4.0-bin-hadoop2.6.tgz

3.hadoop
3.1版本
hadoop-2.6.0.tar.gz
3.2环境变量
HADOOP_HOME=E:/ysg.tools/spark/hadoop-2.6.0

System.setProperty(“hadoop.home.dir”, “E:\ysg.tools\spark\hadoop-2.6.0”);
3.3winutils.exe


winutils.exe拷贝至spark/hadoop-2.6.0/bin


文件下载地址 
http://files.cnblogs.com/files/yjmyzz/hadoop2.6%28x64%29V0.2.zip

 

4.idea
新建 NO-SBT项目


libraties 增加 scala sdk spark-1.4.0-bin-hadoop2.6\lib\spark-assembly-1.4.0-hadoop2.6.0.jar

 

spark.test.iml
先加载 spark-assembly-1.4.0-hadoop2.6.0
再加载 scala-sdk-2.11.7


<?xml version="1.0" encoding="UTF-8"?> <module type="JAVA_MODULE" version="4"> <component name="NewModuleRootManager" inherit-compiler-output="true"> <exclude-output /> <content url="file://$MODULE_DIR$"> <sourceFolder url="file://$MODULE_DIR$/src" isTestSource="false" /> </content> <orderEntry type="inheritedJdk" /> <orderEntry type="sourceFolder" forTests="false" /> <orderEntry type="library" name="spark-assembly-1.4.0-hadoop2.6.0" level="project" /> <orderEntry type="library" name="scala-sdk-2.11.7" level="project" /> </component> </module>

http://www.sxt.cn/info-6256-u-6953.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值