纯粹是个人瞎想,没有任何数学依据。
由于是等值线,就以温度为例。
想法是根据可能性的按距离递减的规律。即A地的温度为T(A),那么距离它100米距离的地方和距离1000米的地方相比,温度对A地的温度的可能取值的影响就不同。
比如距离A地100米的地方,温度取T(A)的可能性为T(A) *0.1,意即权值为0.1 , 而距离1000米的地方,可能权值为0.01
假设用E(A)来表示A地的权值,那么我们就有了:
最终某地的T(P)=(T(A)*E(A)+T(B)*E(B)+.....)/(E(A)+E(B)+E(C)......)
显然这样的算法尤其在边缘处不准确。并且对于地形/植被之类的影响无法考虑。不过这只是一个基础算法。其实就是不同图层按照同样权值的叠加。而每个点的影响都以距离为参数(具体函数待定,但显然是与距离相关的指数函数)
不过这样的算法可能还有一个问题,就是地图上所有的点的温度都必然介于最高温度和最低之间,也就是它明显是把原本的变化趋势放缓了的。不能由它来计算出实际的最高温度。不过如果我们的点很多,且分布较为均匀,我想,这种算法是否可以成为一种较为简单的用软件实现的算法呢?