Spark 求最大值最小值

本文介绍了一种使用Apache Spark来计算数据集中的最大值和最小值的方法。通过定义一个函数maxMinValues,该函数接收一个包含整数对的RDD,并返回一个包含最大值和最小值的元组。首先从文本文件加载数据,然后将每行数据转换为键值对,接着按键分组并对每个组的数据进行迭代以找到最大值和最小值。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

SPARK求最大值最小值

  def maxMinValues: RDD[(Int,Int)] ={
    val sc = SparkUtil.sparkLocal()
    sc.setLogLevel("DEBUG")
    val data = sc.textFile("",1)
    val num =data.flatMap{line=>
      line.split(",")
    }.filter(x=>x.trim().length>0).map(x=>("key",x.toInt))
    num.groupByKey()
      .map{line=>
    var maxValue:Int = Integer.MAX_VALUE
    var minValue:Int = Integer.MIN_VALUE
    for(x<-line._2) {
      if (x>maxValue){
        maxValue = x
      }
      if(x<minValue){
        minValue=x
      }
    }
        (maxValue,minValue)
    }
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值