神经网络中函数逼近的思考

本文探讨了神经网络如何通过函数逼近来解决问题,提出将神经网络视为无穷级数的部分和与余项,强调了寻找普遍规律(Sn)和解决个体差异(Rn)的重要性。作者建议使用不同神经网络的组合,通过逐步增加参数来逼近理想目标。文章中提到,可以先训练简单的规律网络f1,然后逐渐加入新的规律网络f2, f3等,形成分层逼近的策略,同时结合ResNet思想处理余项。训练过程中,早期参与的网络可能会更精准。这种思考方式提供了一种将神经网络微观和宏观结合的新视角。" 79627773,5675886,WebView加载HTTPS页面中HTTP资源的解决与风险,"['WebView', 'HTTPS', '安全']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

神经网络中函数逼近的思考

函数逼近神经网络原文: http://staff.ustc.edu.cn/~lgliu/Resources/DL/What_is_DeepLearning.html

​ 这篇文章很到位,对于用函数逼近思想考虑神经网络,但这篇文章主要是对于一个神经网络的设计,我更加倾向于用不同的神经网络组合的思想,这样方便到时候分模块调参,看结构,并且可以增删网络个数。

​ 我对于神经网络函数逼近的考虑是类似无穷级数等于前面的部分和数列Sn加上余项R,主要重点就在于这个部分和求好就行。F = w1f1(x)+w2f2(x)±----+wnfn(x)+……=Sn+R。

​ Sn就相当于能完成一类问题的通性,R就相当于完成各个个例的个性,就相当于每个个例的专属噪声。

​ 那么需要两个部分才能理想化逼近最理想化目标。一个由神经网络来搞Rn,一个部分来搞Sn.

​ 然后按照http://staff.ustc.edu.cn/~lgliu/Resources/DL/What_is_DeepLearning.html理解思路,我们可以把一个神经网络单层理解成函数逼近,然后越少的参数就相当于在一个低维空间做事,虽然这样一个浅层参数量很少的神经网络无法很好拟合,但是我可以把他理解成最初的普遍规律,然后传入这个浅层参数量很少的神经网络f0参数x0得出的x1 = f1(x0)传给下一个参数量多一点的神经网络x2 = f2(x1),然后x2和x1作为总的自变量 得到x3做为输入量传入下一个神经网络f3(x3)得到x4.x4就可以当作Sn.

​ 然后这里我对x1 x2 x3进行理解,x2已经是预结果图片,和x1结合是为了更好的让结果图片体

函数逼近(Function Approximation )是函数论中的一个重要组成部分,其在数值计算中的作用是十分重要的。运用神经网络进行函数逼近,为函数逼近的发展提供了一条新的思路。 用神经网络函数逼近有许多优点: 首先,它提供了一个标准的逼近结构及逼近工具,这个工具可以随着隐层个数改变来达到任意精度; 其次,有标准的学习算法用以确定逼近函数的参数,并且这一过程是拟人的,即很好地模拟了人的学习过程;最后,能处理的数据对象十分广泛:适用于大规模的,高度非线性的,不完备的数据处理。 本文以几种典型神经网络为例(BP神经网络Function Approximation 、RBF神经网络www.BoliLib.com Approximation 、正交多项式基函数神经网络、样条基函数神经网络),对基于神经网络函数逼近方法进行了研究。神经网络函数逼近能力受神经元个数、学习率、学习次数和训练目标等因素的影响,因此,在研究过程中,充分运用神经网络的非线性逼近能力,首先对几种用于函数逼近神经网络的结构及算法进行研究;再针对几种常用函数曲线,如正弦函数、指数函数、对数函数、三角函数等,分别用典型神经网络进行逼近,并对逼近效果进行比较,得到用于函数逼近神经网络选取规律。所得结论经过实际仿真测试,证明了其有效性。 本文的研究结果对函数逼近的研究具有借鉴意义。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值