17、工程师的统计学习介绍:神经网络、集成学习与Bootstrap方法

工程师的统计学习介绍:神经网络、集成学习与Bootstrap方法

1. 大型神经网络的数据处理

对于大型神经网络而言,交叉验证、自助法(Bootstrap)以及类似的重采样技术在计算上往往成本过高。不过幸运的是,通常在可用数据量非常大时才会考虑使用大型神经网络。在这种情况下,我们可以仅使用部分数据 ((X_1, Y_1), \cdots, (X_N, Y_N)) 作为训练集,从中估计 (\hat{\vartheta} N)。其余的数据,通常为10%或20%,即 ((X {N + 1}, Y_{N + 1}), \cdots, (X_{N + M}, Y_{N + M})) 则用作验证集,用于比较不同网络的性能。此时,通过验证集上的平均误差来近似公式(54):
[V(H) = \frac{1}{M} \sum_{j = N + 1}^{N + M} (Y_j - f_H(X_j; \hat{\vartheta}_N))^2]
然后针对 (H) 对其进行最小化。

2. 集成学习:众人的智慧

当不同的统计学习方法(特别是使用不同超参数的相似方法)应用于同一训练集时,通常会得到不同的预测或分类函数。以合适的方式将它们组合起来,往往能产生新的、更好的性能。像使用回归预测器集合的集成方法,例如装袋法(Bagging)、随机森林或提升法(Boosting)等。

我们从装袋法开始介绍,在此之前,需要先对自助法(Bootstrap)进行初步讨论,装袋法中的“b”就代表了自助法,它是统计学中一种流行的重采样方法。

3. 自助法对预测误差的近似

我们再次考虑一般的回归模型:
[Y_j

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值