机器学习:监督、无监督与强化学习全解析
1. 监督学习
1.1 非线性特征提取与深度神经网络
在监督学习中,我们可以自动进行非线性特征提取。若令 $\varphi(x)$ 有其自身的参数集 $V$,则整体模型形式为:
$f(x; w, V) = w^{\top}\varphi(x; V)$
我们还能将特征提取器 $\varphi(x; V)$ 递归分解为更简单函数的组合,得到的模型就成为 $L$ 个嵌套函数的堆叠:
$f(x; \theta) = f_L(f_{L - 1}(\cdots (f_1(x)) \cdots ))$
其中 $f_{\ell}(x) = f(x; \theta_{\ell})$ 是第 $\ell$ 层的函数。最终层是线性的,形式为 $f_L(x) = w^{\top}f_{1:L - 1}(x)$,这里的 $f_{1:L - 1}(x)$ 是学习到的特征提取器,这正是深度神经网络(DNNs)的关键思想。
1.2 过拟合与泛化
我们可以将经验风险以如下等价方式重写:
$L(\theta; D_{train}) = \frac{1}{|D_{train}|} \sum_{(x_n,y_n) \in D_{train}} \ell(y_n, f(x_n; \theta))$
其中 $N = |D_{train}|$ 是训练集 $D_{train}$ 的大小。这种形式明确了损失是在哪个数据集上评估的。
一个足够灵活的模型可以通过简单记忆每个输入的正确输出来使训练损失降为零(假设无标签噪声),但我们关心的是新数据上的预测准确性。一个完美拟合训练数据但过于复杂
超级会员免费看
订阅专栏 解锁全文
883

被折叠的 条评论
为什么被折叠?



