- 博客(1)
- 收藏
- 关注
原创 Spark源代码解读之rdd分区策略
分区数量设置 目录 分区数量设置 分区数据分配策略 //创建RDD val rdd1 = sc.parallelize(seq) parallelize方法源码: def parallelize[T: ClassTag]( seq: Seq[T], numSlices: Int = defaultParallelism): RDD[T] = withScope { assertNotStopped() new ParallelCollectionRDD[T](th..
2021-10-27 15:35:05
974
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅