scala java混合_三、使用maven创建scala工程(scala和java混一起)

本文介绍了如何配置Eclipse中的Maven+Scala开发环境,包括安装Scala IDE和m2e-scala插件。接着,展示了如何在Eclipse中创建并测试Scala和Maven结合的项目,包括解决版本兼容问题。最后提到了配置Spark本地运行环境的步骤,以及通过Maven创建支持Java和Scala混合项目的详细过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文先叙述如何配置eclipse中maven+scala的开发环境,之后,叙述如何实现spark的本地运行。最后,成功运行scala编写的spark程序。

刚开始我的eclipse+maven环境是配置好的。

系统:win7

eclipse版本:Luna Release(4.4.0)

maven是从EclipseMarket中安装的,如图1。

当初构建eclipse+maven环境时,仅仅安装了第一个。

这里可以先不用急着安装maven,下面在安装maven for scala时,也提供了maven for eclipse。

6b071eb3c02a3bfa49aa82b0d763d774.png

图1-eclipse安装的m2e插件

一、配置eclipse + maven + scala环境

1. 在Eclipse Market中安装Scala IDE

5c8ef3fca233d0dcb37c76d53777b41d.png

图2-eclipse安装Scala IDE

2. 安装m2e-scala

从图3中搜索到的插件名称中可以看到,这里同时也配置了m2e,也即eclipse需要的maven插件。如果eclipse没有eclipse插件,则可以全部选中安装;若已经有了可以单独安装第三个Maven Integration for Scala IDE。

安装完成了MavenIntegration for Scala IDE之后,再输入上面的url,可安装列表里就没有Maven Integration for Scala IDE这一项了。

(PS:此处我是将MavenIntegration for Scala IDE卸载了之后重新截图的)

(PS:如果再看图1,除了第一个MavenIntegration for Eclipse(Luna and newer)1.5之外,还有一个MavenIntegration for Eclipse(Luna)1.5.0,。这是我在使用上述 url安装m2e-scala时,没有注意其中还包含了MavenIntegration for Eclipse,导致安装了两个版本的Maven Integration for Eclipse)

(PS:虽然我已经安装上述url中的MavenIntegration for Eclipse,并且并没有卸载,而图3中依然显示了Maven Integration for Eclipse的选项,是因为其版本有了更新。可以从其中看到其最新的版本是1.5.1,此时若继续安装该Maven Integration for Eclipse,则是对版本进行更新。)

(PS:图1中还有一个MavenIntegration for Eclipse WTP(Juno)1.0.1暂时不知道是怎么安装上去的)

0fd0062f41baaa808616002344d223d6.png

图3-安装m2e-scala

二、测试eclipse+maven+scala的运行环境

1. 先来简单测试一下eclipse+scala

新建一个名为Scala Project,右键工程添加一个名为test的Scala Object,代码如下:

package test object test { def main(args : Array[String]) { println("hello world") } }

最终如图4、5所示。

67027458bf9dc5708288a8289a39925b.png

图4-新建scalaproject

e4b90d518b574860553f4626c3f0b77c.png

图5-scala工程目录

右键test.scala,Run as…-> Scala Application,在终端成功输出了hello world。

从图5中可以看到,我们安装的ScalaIDE中自带的scala版本是2.11.5的。

(PS:如果不在终端以命令行的形式使用scala的话,似乎可以不用单独下载scala包并设置环境变量)

2. 再来测试一下ecliipse+scala+maven

本来新建一个scala+maven的流程可以是这样的,如图6所示。

新建maven工程,不勾选Createa simple project,选择与scala有关的archetype。

eclipse的archetype是一种模板,给人的感觉就是其中的目录架构及相关文件(比如说pom.xml)都是按照某种模式(如scala maven)构造好的。如果选择如图6中的1.2版本的scala相关archetype,则新建的maven工程就有了scala maven工程的目录结构,pom.xml也是配置好的,并且还有几个scala的代码文件。

但是,有一些错误,编译无法通过。我想,这主要是因为scala的版本问题,从工程中的pom.xml中可以看到,这个模板是基于scala 2.7.0构建的。而我们安装的scala IDE是基于scala 2.11.5。

d287f3a2e90bffffb9b0ad4037de99b3.png

图6-新建scala maven工程

scala的新版本对老版本的兼容似乎并不好。这里可以自己修正pom.xml文件,不过估计代码可能也要修改。

我这里是从git上下载了一个现成的基于scala2.11.5的maven工程。

使用git clone下来之后,在eclipse中导入maven工程(maven-sample)。

从其pom.xml中可以看到,是基于scala-2.11.5的。其中只有一个代码文件,即是XMLHelloWorld.scala。只要能够顺利的拉取到pom.xml中的依赖包,就可以直接右键XMLHelloWorld.scala, Run as -> Scala Application。

至此,ecipse+scala+maven就搭建好了。接下来配置spark的本地运行环境。

三、配置spark的本地运行

1. 配置所需依赖包

这里我是在maven-sample工程的基础上配置spark的。

在pom.xml中添加spark-core。

org.Apache.spark

spark-core_2.111.2.1

在default package中添加scala object – SimpleApp。代码如下:

/*SimpleApp.scala*/

importorg.apache.spark.SparkContextimportorg.apache.spark.SparkContext._importorg.apache.spark.SparkConf

object SimpleApp {

def main(args: Array[String]) {

val logFile= "test.txt"

//Should be some file on your system

val conf = new SparkConf().setAppName("Simple Application").setMaster("local[2]")

val sc= newSparkContext(conf)

val logData= sc.textFile(logFile, 2).cache()

val numAs= logData.filter(line => line.contains("a")).count()

val numBs= logData.filter(line => line.contains("b")).count()

println("Lines with a: %s, Lines with b: %s".format(numAs, numBs)) }

}

此时,编译已经通过了,但是如果Run as–> Scala Application的话,会有ClassDefNotFound的异常。

这是因为spark-core其实需要依赖很多其他的jar包来运行,但这些包在spark-core包中并没有,并且在我们的classpath中也没有。

我们可以方便的从在线maven库里找到spark-core包。

-------------------------------------------------------------------------------------------------------------------------------

项目需求:我们采用spark开发项目,使用的开发语言采用java和scala的混合,这个时候我们的项目需要支持java和scala,一般方法两种

(1)通过IDEA开发工具,下载SBT安装包,通过SBT创建项目,自动支持java和scala比较方便,但包的下载很慢

(2)项目我们使用IDEA开发工具,通过maven来完成java和scala混合项目

下面我们专门介绍如何通过maven来支持Java和Scala语言的项目,主要涉及的内容如下

1、执行创建语句(命令行模式下执行)

mvn archetype:generate -DarchetypeGroupId=org.scala-tools.archetypes -DarchetypeArtifactId=scala-archetype-simple -DremoteRepositories=http://scala-tools.org/repo-releases

执行过程中需要让您输入以下参数,根据步骤输入即可

Define value for property 'groupId': :

Define value for property 'artifactId': :

Define value for property 'version':  1.0-SNAPSHOT: :

Define value for property 'package':  : :

输入完成后,通过回车结束,然后就可以创建成功了(紧scala项目)

2、项目结构

说明:

bigdata-user-profile 父目录(在pom.xml 中,通过model方式引入)

userprofile-db 子工程

userprofile-es 子工程

c448a5fbafb48dc21038bb55494233af.png

3、手动方式添加java目录(两个项目)

305dd0a74fb9d0d7e4d65d76457ded09.png

4、介绍一下3个工程pom.xml 配置

4.1 bigdata-user-profile 的pom.xml配置

4.0.0

com.demo.userprofile

bigdata-user-profile

pom

1.0-SNAPSHOT

userprofile-db

userprofile-es

UTF-8

2.10.5

org.apache.spark

spark-core_2.10

1.6.0

org.apache.spark

spark-sql_2.10

1.6.0

org.scala-lang

scala-library

${scala.version}

compile

org.scala-lang

scala-compiler

${scala.version}

compile

junit

junit

4.8.1

test

net.alchim31.maven

scala-maven-plugin

3.2.1

org.apache.maven.plugins

maven-compiler-plugin

2.0.2

net.alchim31.maven

scala-maven-plugin

scala-compile-first

process-resources

add-source

compile

scala-test-compile

process-test-resources

testCompile

org.apache.maven.plugins

maven-compiler-plugin

compile

compile

org.apache.maven.plugins

maven-shade-plugin

1.4

package

shade

*:*

META-INF/*.SF

META-INF/*.DSA

META-INF/*.RSA

4.2 user-profile-db 的pom.xml配置(user-profile-es 中pom.xml 同user-profile-db,不在介绍)

com.demo.userprofile

bigdata-user-profile

1.0-SNAPSHOT

4.0.0

com.demo.userprofile

userprofile-db

1.0-SNAPSHOT

${project.artifactId}

org.mongodb

bson

3.0.4

org.mongodb

mongo-java-driver

3.0.4

org.json

json

20141113

com.google.code.gson

gson

2.3

5、编写测试代码

分别在java和scala目录下创建测试代码,主要测试打包是否完整,具体结构如图所示

2f46810c287a27f70640ea2c7abf62f7.png

6、执行maven的命令

mvn clean compile package

直到出现下面的命令表示成功

[INFO] Replacing D:\demo\user_profiles\bigdata-user-profile\userprofile-es\target\userprofile-es-1.0-SNAPSHOT.jar with D:\demo\user_profiles\bigdata-user-p

rofile\userprofile-es\target\userprofile-es-1.0-SNAPSHOT-shaded.jar

[INFO] ------------------------------------------------------------------------

[INFO] Reactor Summary:

[INFO]

[INFO] bigdata-user-profile ............................... SUCCESS [ 33.012 s]

[INFO] userprofile-db ..................................... SUCCESS [ 33.083 s]

[INFO] userprofile-es ..................................... SUCCESS [ 31.985 s]

[INFO] ------------------------------------------------------------------------

[INFO] BUILD SUCCESS

[INFO] ------------------------------------------------------------------------

[INFO] Total time: 01:38 min

[INFO] Finished at: 2016-09-26T11:34:38+08:00

[INFO] Final Memory: 84M/857M

[INFO] ------------------------------------------------------------------------

7、通过编译工具查看是否把java和scala代码打包成功

实际测试工程中已经ok

e347f09675f8d6ef9dde75d7a94baaeb.png

到这里我们使用maven创建scala和java混合项目就成功了,以后再开发Spark项目时候,就可以使用这种方式替代sbt方式了

------------------------------------------------------------------------------------------------------------------------

上面的“MavenIntegration for Scala IDE”我没有下载成功,直接使用maven命令行创建scala工程如下命令:

1、安装maven及配置环境变量

2、要装Scala IDE即eclipse中的插件。

4、cd到要创建项目的目录,再输入如下命令创建:

mvn archetype:generate -DarchetypeGroupId=net.alchim31.maven

-DarchetypeArtifactId=scala-archetype-simple

-DremoteRepositories=http://scala-tools.org/repo-releases

-DgroupId=com.sf

-DartifactId=scalademo3

-Dversion=1.0-SNAPSHOT

创建成功后,导入到eclipse中结果如下:

d3589cabf3d4f459ddbe1858a5b707c3.png

在src的scala下,创建一个scala object

在src下创建一个"java"的package,在下面创建一个java class

34dd7fe7c837d87b19fd27068c789a5a.png

在target目录下生产的文件如下:

3e58fafd64959c2c6169cd14d8579f3a.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值