代码:
def ncdensityrdd(): Unit ={
val conf = new SparkConf().setMaster("local").setAppName("Kernel Density")
val sc = new SparkContext(conf)
val tl = TileLayout(7, 4, 100, 100)
val ld = LayoutDefinition(extent, tl)
val kernelWidth=9
def ptfToExtent[D](p: PointFeature[D]) = pointFeatureToExtent(kernelWidth, ld, p)
def pointFeatureToExtent[D](kwidth: Double, ld: LayoutDefinition, ptf: PointFeature[D]): Extent = {
val p = ptf.geom
Extent(p.x - kwidth * ld.cellwidth / 2,
p.y - kwidth * ld.cellheight / 2,
p.x + kwidth * ld.cellwidth / 2,
p.y + kwidth * ld.cellheight / 2)
}
def ptfToSpatialKey[D](ptf: PointFeature[D]): Seq[(SpatialKey,Poi

本文介绍了一种使用Spark RDD进行密度图生成的方法,通过定义点特征到范围的转换,实现基于高斯核的密度分布计算,并利用Spark的并行处理能力进行高效的数据处理和结果输出。
最低0.47元/天 解锁文章

418

被折叠的 条评论
为什么被折叠?



