神经网络中函数逼近的思考
函数逼近神经网络原文: http://staff.ustc.edu.cn/~lgliu/Resources/DL/What_is_DeepLearning.html
这篇文章很到位,对于用函数逼近思想考虑神经网络,但这篇文章主要是对于一个神经网络的设计,我更加倾向于用不同的神经网络组合的思想,这样方便到时候分模块调参,看结构,并且可以增删网络个数。
我对于神经网络函数逼近的考虑是类似无穷级数等于前面的部分和数列Sn加上余项R,主要重点就在于这个部分和求好就行。F = w1f1(x)+w2f2(x)±----+wnfn(x)+……=Sn+R。
Sn就相当于能完成一类问题的通性,R就相当于完成各个个例的个性,就相当于每个个例的专属噪声。
那么需要两个部分才能理想化逼近最理想化目标。一个由神经网络来搞Rn,一个部分来搞Sn.
然后按照http://staff.ustc.edu.cn/~lgliu/Resources/DL/What_is_DeepLearning.html理解思路,我们可以把一个神经网络单层理解成函数逼近,然后越少的参数就相当于在一个低维空间做事,虽然这样一个浅层参数量很少的神经网络无法很好拟合,但是我可以把他理解成最初的普遍规律,然后传入这个浅层参数量很少的神经网络f0参数x0得出的x1 = f1(x0)传给下一个参数量多一点的神经网络x2 = f2(x1),然后x2和x1作为总的自变量 得到x3做为输入量传入下一个神经网络f3(x3)得到x4.x4就可以当作Sn.
然后这里我对x1 x2 x3进行理解,x2已经是预结果图片,和x1结合是为了更好的让结果图片体