scala spark 的三次排序

本文介绍了一个使用Apache Spark实现的自定义排序算法。该算法能够按照输入数据的第一列倒序、第二列正序以及第三列倒序的方式进行排序。通过具体的Spark代码示例,展示了如何读取文件、创建RDD并实现自定义排序逻辑。
没有排序的数据
    1 5 2
    2 2 4
    2 2 5
    1 3 6

    1 2 1

    排序后的数据(用后面的代码实现)

    2 2 5
    2 2 4
    1 2 1
    1 3 6
    1 5 2


package bigdata1707.day08

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

/**
  * Created by wj on 2018/5/9.
  * 按照输入数据的第一列倒序 第二列正序 第三列倒序
  *
  */
class SecondSort
(val firstNum : Int , val secondNum : Int , val thirdNum : Int) extends
  Ordered[SecondSort] with Serializable{
  override def compare(that: SecondSort): Int = {
    var result : Int = this.firstNum - that.firstNum
    if(result == 0){
      result = that.secondNum - this.secondNum
      if(result == 0){
        result = this.thirdNum - that.thirdNum
      }
    }
    result
  }
}
object SecondSort {
  def main(args: Array[String]): Unit = {
    val conf: SparkConf = new SparkConf().setMaster("local").setAppName("SecondSort")
    val sc: SparkContext = new SparkContext(conf)
    val textFileRDD: RDD[String] = sc.textFile("D:\\acheshi\\3.txt")
    val mapRDD = textFileRDD.map(line=> {
      (new SecondSort(line.split(" ")(0).toInt,
        line.split(" ")(1).toInt ,line.split(" ")(2).toInt), line)
    });
    val sortByKeyRDD: RDD[(SecondSort, String)] = mapRDD.sortByKey(false)
    val mapValueRDD: RDD[String] = sortByKeyRDD.map(_._2)
    //    println(mapValueRDD.collect().toList.toString)
    mapValueRDD.foreach(println)
    sc.stop()
  }
}
<think> 嗯,用户这次在问Spark的SortShuffle是否会强制排序,看来ta对Spark的shuffle机制很感兴趣。之前讨论过Hadoop和Spark的shuffle区别,这次聚焦在Spark内部机制上。 用户引用的资料很有价,特别是引用[1]提到SortShuffle在mapper阶段会进行两次排序。不过这里需要澄清一个关键点:第二次排序(按数据key排序)并不是必然发生的。用户可能被这些技术细节搞糊涂了,需要明确区分“分区排序”和“数据排序”两个概念。 从引用[2][4]可以看出,Spark的SortShuffle有三种模式:普通模式、bypass模式和unsafe模式。普通模式下确实会强制按key排序,这是它区别于HashShuffle的核心特征。但bypass模式就很特殊——当reduce分区数≤200且不需要聚合时,它像HashShuffle那样不排序直接写文件。 用户可能没注意到这个例外情况。ta的疑问应该源于看到不同资料对“排序”的描述不一致。需要强调这个200的阈spark.shuffle.sort.bypassMergeThreshold),这是理解SortShuffle是否强制排序的关键分水岭。 另外引用[3]提到的softBuffer也很有意思,虽然叫sortBuffer但实际不排序,这说明Spark命名也有迷惑性。用户如果研究过源码可能会更困惑,需要解释清楚这个缓冲区的真实作用。 考虑到用户连续追问shuffle机制,ta可能是大数据开发人员或调优工程师。下次可以建议ta关注shuffle文件合并策略对磁盘IO的影响,或者探讨为什么bypass模式要设置200这个阈。 </think>Spark的SortShuffle**并不总是强制对数据本身排序**,是否排序取决于**运行模式**和**算子特性**,具体如下: --- ### 一、SortShuffle的三种模式与排序行为 1. **普通模式(默认)** - **强制按分区ID排序**:将数据按目标分区ID(`partitionId`)排序后写入内存缓冲区,确保同一分区的数据连续存储[^1][^2]。 - **可选按Key排序**:若算子包含聚合(如`reduceByKey`)或显式排序(如`sortByKey`),会**额外按数据Key排序**;否则仅按分区ID排序[^1]。 ```scala // 示例:reduceByKey触发按Key排序 val rdd = sc.textFile("data.txt").flatMap(_.split(" ")).map((_, 1)) rdd.reduceByKey(_ + _) // 触发SortShuffle普通模式,按Key排序 ``` 2. **Bypass模式** - **触发条件**:同时满足 (1) 下游分区数 ≤ `spark.shuffle.sort.bypassMergeThreshold`(默认200) (2) 算子无聚合操作(如`groupBy`无预聚合)[^2][^4]。 - **无任何排序**:直接为每个分区生成独立文件,类似HashShuffle,但最终合并为单一文件[^2][^4]。 ```scala // 示例:repartition触发Bypass模式(分区数≤200时) rdd.repartition(100) // 不排序,仅按分区ID写文件 ``` 3. **Unsafe模式(堆外内存优化)** - **强制按指针排序**:对堆外内存中的二进制数据按`(partitionId, key)`的指针顺序排序,不反序列化数据本身[^2]。 - **适用场景**:数据为基本类型(如int、string)且无复杂聚合[^2]。 --- ### 二、排序行为对比总结 | **模式** | 按分区ID排序 | 按数据Key排序 | 触发条件 | |----------------|--------------|------------------------|------------------------------------------| | **普通模式** | ✓ 强制 | ✓ 需聚合/显式排序 | 默认启用 | | **Bypass模式** | ✗ 不排序 | ✗ 不排序 | 分区数≤200 + 无聚合操作 | | **Unsafe模式** | ✓ 间接排序 | ✓ 间接排序(指针顺序) | 基本类型数据 + 无复杂聚合 | > **关键结论**: > 1. **分区ID排序**在普通/Unsafe模式中强制存在(Bypass模式除外)[^1][^2]。 > 2. **数据Key排序**仅在普通模式下由**算子语义触发**(如聚合),非强制行为[^1][^4]。 --- ### 三、排序的底层逻辑 - **内存缓冲区管理**: 数据先写入`SortBuffer`(引用[3]),但命名为"sort"不必然执行排序——Bypass模式下该缓冲区仅作临时存储[^3]。 - **文件生成逻辑**: ```mermaid graph LR A[数据进入Buffer] --> B{是否Bypass模式?} B -- 是 --> C[直接按分区写临时文件] B -- 否 --> D[按partitionId排序] D --> E{算子需Key排序?} E -- 是 --> F[按Key二次排序] E -- 否 --> G[写入磁盘] ``` --- ### 相关问题 1. 如何通过配置优化SortShuffle的排序性能? 2. Bypass模式在哪些场景下可能引发数据倾斜? 3. Unsafe模式如何通过堆外内存减少GC开销? 4. 为什么按分区ID排序是Shuffle的基础要求? [^1]: [Sort Shuffle主要是在Mapper阶段,在Mapper阶段,会进行两次排序](https://blog.youkuaiyun.com/qq_36269591/article/details/117762279) [^2]: [Spark Shuffle机制深度解析与优化](https://cloud.tencent.com/developer/article/1490388) [^3]: [shuffle read首先进行fetch操作](https://zhuanlan.zhihu.com/p/67061627) [^4]: [下游分区数量数量小于等于spark.shuffle.sort.bypassMergeThreshold参数的](https://www.jianshu.com/p/89e24a9d5e0d
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值