val result = textFile.flatMap(line => line.split("\\s+"))
.map(word => (word, 1)).reduceByKey(_ + _)
本文介绍使用Apache Spark进行数据处理的基本流程,包括如何将文本文件转换为键值对,并通过reduceByKey操作完成词频统计。
val result = textFile.flatMap(line => line.split("\\s+"))
.map(word => (word, 1)).reduceByKey(_ + _)
1028
697
421

被折叠的 条评论
为什么被折叠?