Spark环境篇上(一)

Spark on windows

参考文献:https://blog.youkuaiyun.com/youchuikai/article/details/67049801
在这里插入图片描述
jdk配置

JAVA_HOME = E:\DevTool\Java\jdk1.7.0_80

scala配置

SCALA_HOME = E:\DevTool\scala-2.10.6

maven配置

MAVEN_HOME = E:\DevTool\apache-maven-3.0.4

hadoop配置

HADOOP_HOME = E:\DevTool\hadoop-common-2.2.0-bin-master

spark配置

SPARK_HOME = E:\DevTool\spark-1.6.0-bin-hadoop2.6

终极path配置

%JAVA_HOME%\bin;%SCALA_HOME%\bin;%MAVEN_HOME%\bin;%SPARK_HOME%\bin;%HADOOP_HOME%\bin;

新建一个maven项目
在这里插入图片描述
这里注意改一下仓库,根据个人情况
在这里插入图片描述
版本及依赖

<properties> 
<scala.version>2.10.7</scala.version>
 <spark.version>1.6.3</spark.version> 
</properties>

 <dependency> 
<groupId>org.apache.spark</groupId> 
<artifactId>spark-core_2.10</artifactId>
 <version>${spark.version}</version> 
</dependency> 

把jar包加载一下
在这里插入图片描述
这里设置一下版本信息
在这里插入图片描述
接下来就可以输入代码测试

package com.etc.wc
import org.apache.spark.{SparkConf, SparkContext}
/**
* Hello world!
*
*/
object App {
def main(args: Array[String]): Unit = {
// System.setProperty("hadoop.home.dir", "D:\\sparkwindows\\hadoop-common-2.2.0-bin-master")


val sparkConf = new SparkConf().setMaster("local").setAppName("WordCount")
val sc = new SparkContext(sparkConf)

val rowRdd = sc.textFile("D:\\sparklocal.txt")
val resultRdd = rowRdd.flatMap(line => line.split("\\s+"))
.map(word => (word, 1)).reduceByKey(_ + _)

for (data <- resultRdd){
println(data)
}
}
}

正常来讲结果是这样的
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值