eclipse + maven + scala+spark环境搭建

本文详细介绍了如何在Eclipse环境中配置Maven、Scala及Spark,包括安装Scala IDE、m2e-scala插件、配置Scala Maven项目、解决常见错误及配置Spark本地运行等步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、配置eclipse + maven + scala环境

1. Eclipse Market中安装Scala IDEMaven


 

 

2. 安装m2e-scala(图中的url是:http://alchim31.free.fr/m2e-scala/update-site/)

  

二、测试eclipse+maven+scala的运行环境

1. 先来简单测试一下eclipse+scala

1) 新建一个名为 Scala Project ,右键工程添加一个名为 test Scala Object ,代码如下:

 

2) 最终如图示:

 

 

3) 右键 test.scala Run as…-> Scala Application ,在终端成功输出了 hello world

2、再来测试一下ecliipse+scala+maven

1) 新建maven工程

 


如果没有 scala 这一项,手动添加 Archetype. 最后点击 Finish. 新建项目如下图:

 

此时创建的工程还不是 scala 的工程,在项目名称上点击右键

 

点击 Add Scala Nature后项目才转换为scala-maven项目

然后pom.xml报下图中的错误,解决办法:在 plugins 的外层加标签

 

 

这样 maven+scala 的项目就成功搭建了。

三、配置spark的本地运行

1. 配置所需依赖包

1) maven-sample 工程的基础上配置 spark 。只需在 poml.xml 中添加 spark-core
注意:此处2.11表示scala的版本,1.21表示spark的版本
  1. <dependency>  
  2.     <groupId>org.apache.spark</groupId>  
  3.     <artifactId>spark-core_2.11</artifactId>  
  4.     <version>1.2.1</version>  
  5. </dependency>  
2) default package 中添加 scala object – SimpleApp 。代码如下
  1. /* SimpleApp.scala */  
  2. import org.apache.spark.SparkContext  
  3. import org.apache.spark.SparkContext._  
  4. import org.apache.spark.SparkConf  
  5.   
  6. object SimpleApp {  
  7.   def main(args: Array[String]) {  
  8.     val logFile = "test.txt" // Should be some file on your system  
  9.     val conf = new SparkConf().setAppName("Simple Application").setMaster("local[2]")  
  10.     val sc = new SparkContext(conf)  
  11.     val logData = sc.textFile(logFile, 2).cache()  
  12.     val numAs = logData.filter(line => line.contains("a")).count()  
  13.     val numBs = logData.filter(line => line.contains("b")).count()  
  14.     println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))  
  15.   }  
  16. }  
3)Test.txt 文件需要在项目文件目录中创建。内容如下:
  1. a  
  2. b  
  3. c  
  4. ab  
  5. abab  
  6. d  
4) 右键 SimpleApp.scala Run as -> Scala Application ,运行程序,发现报异常。

 

该异常解决办法如下:

http://www.srccodes.com/p/article/39/error-util-shell-failed-locate-winutils-binary-hadoop-binary-path

网页中提供了“Build, Install, Configure and Run Apache Hadoop 2.2.0 in MicrosoftWindows OS”的链接,也提供了现成的编译好的包。直接将包下载下来,在工程目录下建立null/bin目录,并将下载包中的所有文件拷贝进了null/bin目录。

 

5) 接下来,再运行 SimpleApp 程序,就没有异常了。运行结果:
Lines with a: 3, Lines with b: 3

以上就是eclipse + maven + scala+spark环境搭建的所有步骤。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值