神经网络与机器学习 笔记—小规模和大规模学习问题

本文探讨了监督学习中的小规模和大规模学习问题,重点关注训练样本数量、网络函数族大小及计算误差的影响。在小规模学习中,主要关注逼近和估计误差,而在大规模学习中,计算时间成为关键,最优化误差变得显著。机器学习的三种误差——逼近误差、估计误差和最优化误差,都在不同规模的学习中发挥作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

监督学习的可行性依赖于下面的关键问题:

由N个独立同分布的样本(X1,D1),(X2,D2),…,(Xn,Dn)

组成的训练样本是否包含了构造具有良好泛化性能的机器学习的足够信息?

计算考虑:

神经网络模型(例如单层多层感知器)必须是可控变量,使得它能够被自由地调整以达到对从未出现过的数据的最好测试性能。另一个可控变量是用于训练的样本数量。为了增加监督训练过程的实际真实性,Bottou通过考虑一个新的可控变量来介绍结算代价。这个新的可控变量就是最优精确度。

小规模学习问题

只考虑小规模学习问题时,机器学习设计者可以得到以下三个变量:

训练样本个数,N。

逼近网络函数族F的容许大小K。

引入的计算误差δ可以是0。

大规模学习问题

大规模学习问题的主动预算约束是计算时间。在处理第二类学习问题时,面对更复杂的这种,因为现在必须对计算时间T负责。

在大规模学习问题中,通过调整如下可提供变量来最小化:

样本个数,N。

逼近网络函数的容许大小K。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值