神经网络作为通用逼近器:理论与应用
1. 引言
在深度学习领域,神经网络的一个重要特性是其作为通用逼近器的能力。这意味着神经网络能够以任意精度逼近各种函数。为了更好地理解这一概念,下面将通过几个具体例子进行说明。
2. 示例引入
2.1 学习连续函数
假设我们要创建一个神经网络来重新发现牛顿万有引力定律。该定律的函数形式为 ( f(m_1, m_2, d) = \frac{km_1m_2}{d^2} ),即两个质量分别为 ( m_1 ) 和 ( m_2 ) 的物体之间的引力与它们之间距离的平方成反比。
我们构建一个输入为 ( (x_1, x_2, x_3) = (m_1, m_2, d) ) 的网络,这些输入可以在三维区域 ( K ) 内取连续值。需要学习的目标变量是 ( z = f(m_1, m_2, d) ),其中 ( f ) 是从 ( K ) 到 ( \mathbb{R} ) 的连续函数。网络的输出为 ( y = g(m_1, m_2, d; w, b) ),它依赖于输入和一些参数(权重 ( w ) 和偏置 ( b ))。通过调整这些参数,输出函数 ( g ) 能够以任意精度逼近连续函数 ( f )。这样,当给定两个物体的质量和它们之间的距离时,网络就能以超过任何先验固定误差的精度提供它们之间的引力。
2.2 学习有限能量函数
一个音频信号需要由神经网络进行学习。通常只考虑有限能量的信号,即信号是 ( L^2 ) 空间中的函数。网络的输入为 ( x = (t, \nu) ),其中 ( x_1 = t ) 表示时间,( x_2 = \nu ) 表示信号频率。目标函数 ( z = f(x
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



