使用代码:
val file = spark.sparkContext.textFile("file:///home/iie4bu/data/hello.txt")
val wordCounts = file.flatMap(line => line.split(",")).map((word => (word,1))).reduceByKey(_ + _)
wordCounts.collect
可以看到有两个Worker在运行这个作业

这个Job:

本文介绍如何使用Spark的API对本地文本文件进行词频统计,通过代码示例展示了从读取文件到词频统计的全过程,并指出作业运行过程中涉及的Worker数量。
使用代码:
val file = spark.sparkContext.textFile("file:///home/iie4bu/data/hello.txt")
val wordCounts = file.flatMap(line => line.split(",")).map((word => (word,1))).reduceByKey(_ + _)
wordCounts.collect
可以看到有两个Worker在运行这个作业

这个Job:

431
410
1197

被折叠的 条评论
为什么被折叠?