Spark本地开发环境scala版本

本文介绍如何使用SBT和Maven配置Spark项目,包括设置Hadoop环境变量、创建项目、添加依赖等步骤,并提供了一个简单的测试代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

SBT-Scala

参考上篇http://blog.youkuaiyun.com/baifanwudi/article/details/78354339
配置hadoop环境变量


新建SBT项目

这里写图片描述

这里写图片描述


sbt配置

name := "SparkScalaTest"

version := "1.0"

scalaVersion := "2.11.8"

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.2.0"

libraryDependencies += "org.apache.spark" % "spark-sql_2.11" % "2.2.0"

libraryDependencies += "org.apache.spark" % "spark-sql-kafka-0-10_2.11" % "2.2.0"

libraryDependencies += "org.apache.spark" % "spark-streaming-kafka-0-10_2.11" % "2.2.0"

libraryDependencies += "org.apache.hadoop" % "hadoop-common" % "2.7.1"

测试代码

import org.apache.spark.sql.SparkSession

object Test {
  def main(args: Array[String]): Unit = {

    val spark = SparkSession.builder().appName("LocalTest").master("local[2]").getOrCreate();
    val textFile = spark.read.textFile("README.md");
    println(textFile.count());

    println(textFile.first());

    val linesWithSpark = textFile.filter(line => line.contains("Spark"))
    val s = textFile.filter(line => line.contains("Spark")).count()
    println(s)
    spark.stop()
  }
}

本地启动测试.


Maven-Scala

如果是maven项目,需要加上scala版本包依赖(接上篇maven项目)

这里写图片描述

新建scala目录,且标记为Source Root

这里写图片描述

这里写图片描述

然后新建scala测试类,测试代码如上面一样.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值