零基础-动手学深度学习-4.9. 环境和分布偏移

通过将基于模型的决策引入环境,我们可能会破坏模型(因为模型决策在于穿皮鞋的人更不会欠款,导致了所有人开始穿皮鞋,这也让我们的决策失去了原本的意义)

4.9.1.1. 协变量偏移(狗还是狗 只不过变成了卡通狗)

虽然输入的分布可能随时间而改变, 但标签函数(即条件分布P(y∣x))没有改变。 统计学家称之为协变量偏移(covariate shift), 因为这个问题是由于协变量(特征)分布的变化而产生的。这里的例子是,一个数据集中都是真实图片,另一个是卡通图片,导致了偏移。

4.9.1.2. 标签偏移(狗不是狗 变成了犬或者其他的认定)

这里我们假设标签边缘概率P(y)可以改变, 但是类别条件分布P(x∣y)在不同的领域之间保持不变。预测患者的疾病,我们可能根据症状来判断, 即使疾病的相对流行率随着时间的推移而变化。 标签偏移在这里是恰当的假设,因为疾病会引起症状。 在另一些情况下,标签偏移和协变量偏移假设可以同时成立。 例如,当标签是确定的,即使y导致x,协变量偏移假设也会得到满足。 有趣的是,在这些情况下,使用基于标签偏移假设的方法通常是有利的。 这是因为这些方法倾向于包含看起来像标签(通常是低维)的对象, 而不是像输入(通常是高维的)对象。

4.9.1.3. 概念偏移(人们认知不一样)

我们也可能会遇到概念偏移(concept shift): 当标签的定义发生变化时,就会出现这种问题。 这听起来很奇怪——一只猫就是一只猫,不是吗? 然而,其他类别会随着不同时间的用法而发生变化。 精神疾病的诊断标准、所谓的时髦、以及工作头衔等等,都是概念偏移的日常映射。

4.9.2分布偏移示例(略)

4.9.3分布偏移纠正

4.9.3.1经验风险和实际风险

这一部分从概率论的角度说就是实际值和观测量之间的关系,最终依据概率分布收敛得到一个预测的期望值,那么就是经验风险对于实际风险的预测。

 4.9.3.2. 协变量偏移纠正

 “依赖性假设”具体指的是:标签 y 依赖于输入 x 的方式在源分布和目标分布下是相同的。用概率术语表达就是:条件分布 P(y | x) 保持不变。

 4.9.3.3. 标签偏移纠正

 

测试集上的预测分布 (μ̂) 近似等于混淆矩阵 (C) 乘以目标域的真实标签分布,从而得到标签似然比率。

4.9.4. 学习问题的分类法

1、批量学习:访问一组训练特征后部署模型对来自统一分布的新数据进行评分。

2、在线学习:我们首先观测到xi, 然后我们得出一个估计值f(xi), 只有当我们做到这一点后,我们才观测到yi。 然后根据我们的决定,我们会得到奖励或损失。在这个循环中,给定新的观测结果,我们会不断地改进我们的模型。

3、老虎机:可以采取的行动是有限的,可以获得更强的最优性理论保证

4、控制:pid控制器算法,自动调整超参数以获得更好的质量。

5、强化学习:强调如何基于环境而行动,以取得最大化的预期利益,就像下象棋之类的alpha狗

6、考虑到环境

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值