- 博客(1)
- 收藏
- 关注
原创 spark分区规则
spark分区规则 一、从内存中获取RDD // Sequences need to be sliced at the same set of index positions for operations // like RDD.zip() to behave as expected //length集合长度,numSlices切片数,返回值为每个分区的起始下标 def positions(length: Long, numSlices: Int): Iterator[(Int, Int)] = { (
2022-04-28 20:58:56
1569
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人