scala版本wordcount的几种写法

本文介绍了使用Scala语言实现WordCount的三种方法,包括利用map、flatMap、groupBy等高阶函数简化处理过程,以及如何通过并行集合提升计算效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

今天看了下scala写的wordcount可以一行搞定,但是感觉有点费脑!

写了几种方式:

第一种:

代码如下所示,其中先对list进行map操作并以空格切分,变成:list(list(“hello”,”world”),list(“word”,”count”),list(“hello”,”hello”,”lijie”),list(“lalala”,”lijie”)),然后对上面的list进行flatten(压扁)操作变成:list(hello,world, word,count, hello,hello,lijie, lalala,lijie),之后再进行map操作生成一个list并且里面放的元组:list((hello,1),(world,1), (word,1),(count,1), (hello,1),(hello,1),(lijie,1), (lalala,1),(lijie,1)),接着对上面元组list的第一个值进行分组(也就是对单词进行分组)groupBy: Map(count -> List((count,1)), world -> List((world,1)), lijie -> List((lijie,1), (lijie,1)), hello -> List((hello,1), (hello,1), (hello,1)), word -> List((word,1)), lalala -> List((lalala,1))),紧接着又做map操作并且传入一个匿名函数,其中t表示上面的单词名字和元组list的对偶元组,并返回一个key为单词名字,value为后面list的size的集合:Map(count -> 1, world -> 1, lijie -> 2, hello -> 3, word -> 1, lalala -> 1),最后转成list然后做排序等操作:List((hello,3), (lijie,2), (lalala,1), (word,1), (world,1), (count,1))

//这个list模拟从文件读取的数据
val listWords = List("hello world", "word count", "hello hello lijie", "lalala lijie")

//第一种方式
val w0 = listWords.map(_.split(" ")).flatten.map((_,1)).groupBy(_._1).map(t => (t._1,t._2.size)).toList.sortBy(_._2).reverse

第二种:

这里的flatMap就相当于上面先map然后再flatten,然后mapValues相当于对key-value形式的类型把它的value取出来做操作,然后key还是保持原来的key,其他的操作都一样


//这个list模拟从文件读取的数据
val listWords = List("hello world", "word count", "hello hello lijie", "lalala lijie")

//第二种方式
val w1 = listWords.flatMap(_.split(" ")).map((_,1)).groupBy(_._1).mapValues(_.size).toList.sortBy(_._2).reverse

第三种:

这种方式用了foldLeft,类似于hadoop中的map端的reduce(combiner),其中.foldLeft(0)(+._2)相当于对mapValues的(这里代表List,里面装的元组,例如list((hello,2),(hello,1)))的元组的单词数从0开始相加,后面的操作同上,如果list里面不是单独的(hello,1)而是有(hello,2)这种的时候用上面的size就行不通了,就可以用这种方法


//这个list模拟从文件读取的数据
val listWords = List("hello world", "word count", "hello hello lijie", "lalala lijie")

//第三种方式
val w2 = listWords.flatMap(_.split(" ")).map((_,1)).groupBy(_._1).mapValues(_.foldLeft(0)(_+_._2)).toList.sortBy(_._2).reverse

其中上面三种方式最后打印出来都是一个结果:

List((hello,3), (lijie,2), (lalala,1), (word,1), (world,1), (count,1))

list.par

//表示转换成并行集合
list.par

aggregate方法:

//聚合 aggregate 传递两个函数
//第一个下划线表示初始值,或者得到的中间值,第二个表示每个list的集合,后面的函数便是前面得到的值累加
val a = list(list(1,2,3),list(3,2),list(4,3))
a.aggregate(0)(_+_.sum,_+_)

reduce方法

//并行计算
list.par.reduce(_+_)

//如果不是并行list reduce相当于reduceLeft
list.reduce(_+_)相当于list.reduceLeft(_+_)

foreach方法

//只会把数组元素取出来应用到函数,不会像map一样还有个返回结果
foreach 
<think>好的,用户想了解如何使用IDE实现Spark和ScalaWordCount示例。首先,我需要整理已有的引用信息,特别是引用2、3、4,它们提到了使用IntelliJ IDEA或Eclipse进行开发,以及具体的代码示例。 首先,用户可能需要一个分步教程。根据引用2,推荐使用IntelliJ IDEA,所以应该以IDEA为例来讲解。需要包括环境准备、项目创建、依赖配置、代码编写和运行步骤。 环境准备部分,需要说明安装JDK、Scala插件和Spark。引用2提到IDE的选择,所以需要指导用户安装IDEA和Scala插件。然后创建Scala项目,配置build.sbt或者Maven的依赖,添加Spark-core的库,如引用3中的示例代码需要SparkConf和SparkContext,这需要正确的依赖。 接下来是代码编写,引用3和4都提供了不同的WordCount实现,可以综合这两个例子,给出一个标准的代码结构,包括定义object,main方法,配置SparkConf,读取文件,split、map、reduceByKey等步骤,并保存结果或打印输出。要注意代码中的setMaster可能设置为local,方便本地运行。 运行部分需要说明如何设置输入参数,比如文件路径,或者像引用4中处理命令行参数。同时要提醒用户注意文件路径的正确性,避免错误。另外,引用4中的示例有两种输出方式,保存到文件和打印到控制台,可以都包含进去,让用户了解两种方法。 可能还需要提到本地运行SparkPi的示例,但用户的问题集中在WordCount,所以可能不需要展开。最后,根据用户的问题生成相关问题,比如性能优化、依赖冲突处理、不同运行模式等,参考之前的结构。 需要确保所有步骤清晰,代码正确,特别是依赖配置部分,因为用户容易在这里出错。引用3中的代码用了textFile和lambda表达式,需要检查是否符合Scala语法。另外,注意代码中的箭头符号是否正确,比如在引用3中的=>可能被转义,需要修正为正确的=>符号。 总结步骤应该是:安装IDE和插件->创建项目->添加依赖->编写代码->配置运行参数->执行。可能还需要提醒用户安装Scala SDK和正确版本的Spark,避免版本冲突,如引用1提到的Scala 2.10.5和Spark的兼容性。但用户提供的引用中没有具体版本说明,可能需要建议使用较新且兼容的版本,比如Scala 2.12和Spark 3.x。 最后,确保回答中的代码部分使用正确的格式,行内公式用$...$,独立公式用$$...$$,但这里可能不需要数学公式,所以主要关注代码块和引用标注。引用用户提供的引用2、3、4来支持步骤的正确性,比如依赖配置和代码示例。</think>### 使用IDE开发Spark Scala WordCount示例教程 #### 1. 环境准备 - **安装IntelliJ IDEA**:推荐使用IntelliJ IDEA(社区版即可),下载后安装Scala插件[^2]。 - **配置依赖**:新建Scala项目后,在`build.sbt`中添加Spark依赖: ```scala libraryDependencies += "org.apache.spark" %% "spark-core" % "3.3.0" ``` 需确保Scala版本与Spark兼容(例如Spark 3.3.0对应Scala 2.12或2.13)[^1][^2]。 #### 2. 创建WordCount代码 ```scala import org.apache.spark.{SparkConf, SparkContext} object WordCount { def main(args: Array[String]): Unit = { val conf = new SparkConf() .setAppName("WordCount") .setMaster("local[*]") // 本地运行模式 val sc = new SparkContext(conf) val inputPath = "data/input.txt" // 输入文件路径 val outputPath = "data/output" // 输出目录路径 val lines = sc.textFile(inputPath) val wordCounts = lines .flatMap(_.split(" ")) .map(word => (word, 1)) .reduceByKey(_ + _) wordCounts.saveAsTextFile(outputPath) // 保存到文件 wordCounts.collect().foreach(println) // 打印到控制台 sc.stop() } } ``` #### 3. 运行配置 1. 在IDEA中右键点击`WordCount`对象,选择**Run 'WordCount'**。 2. 若需命令行参数,可在**Run/Debug Configurations**的**Program arguments**中指定输入/输出路径(参考引用[4]的示例)。 #### 4. 验证结果 - 控制台会输出单词统计结果。 - 输出目录`data/output`会生成多个结果文件(Spark分布式计算特性导致)。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值