基于Spark下WordCount的Demo

本文介绍如何使用Apache Spark实现WordCount程序,从读取文本文件开始,通过一系列转换操作如切分、映射、归约等,最终统计单词频率并排序,最后将结果保存到本地目录。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

import org.apache.spark.{SparkConf, SparkContext}
object WordCount {
  def main(args: Array[String]): Unit = {
    /**
      * 创建SparkConf()并设置App名称
      * local指本地
      * 2代表在本地起两个线程
      */
    val conf = new SparkConf().setAppName("WC").setMaster("local[2]")

    /**
      * 创建SparkContext,该对象是提交的Spark App的入口
      */
    val sc = new SparkContext(conf)

    /**
      * 使用sc创建RDD并执行相应的transformation和action
      * 1:按照空格进行切分
      * 2:将得到的数组中的元素组合成(单词,1)的形式
      * 3:统计相同的key出现多少次
      * 4:根据出现的次数将元组进行排序,默认是升序,false代表降序
      * 5:保存到相应的本地目录下
      */
    sc.textFile("E:\\words.txt").
      flatMap(_.split(" ")).
      map((_,1)).
      reduceByKey(_+_,1).
      sortBy(_._2,false).
      saveAsTextFile("E:\\outputFile")
    //关闭资源
    sc.stop()

  }
}

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值