机器学习基石ch4

四、Feasibility of Learning

机器学习的可能性。

4.1 Learning is Impossible

学习可能是做不到的。

在训练样本集(in-sample)中,可以求得一个最佳的假设g,该假设最大可能的接近目标函数f,但是在训练样本集之外的其他样本(out-of-sample)中,假设g和目标函数f可能差别很远。

 

4.2 Probability to the Rescue

可能的补救方式。

通过上一小节,我们得到一个结论,机器学习无法求得近似目标函数f的假设函数g。

回忆在以前学过的知识中,有无遇到过类似的问题:通过少量的已知样本推论整个样本集的情况。

是否想到一个曾经学过的知识,其实就是概率统计中的知识。

通过一个例子来复习下该知识。有一个罐子,这个罐子里盛放着橙色和绿色两种颜色的小球,我们如何在不查遍所有小球的情况下,得知罐子中橙子小球所占的比例呢?抽取样本,如图4-1所示。

 

图4-1 抽取样本

 

假设罐子中橙色小球的概率为,不难得出绿色小球的概率为,其中 为未知值;

而通过抽样查出的橙色小球比例为,绿色小球的比例为 是从抽样数据中计算出的,因此为已知值。

如何通过已知样本,求得未知的样本

可以想象到,在很大的几率上接近的结果。因为在罐子里的小球均匀搅拌过后,抽出小球中的橙色小球比例很有可能接近整个罐子中橙色小球的比例,不难想象在抽出的小球数量等于罐中小球数量时,两者完全一致。

这其中不了解的是,到底有多大的可能性两者接近?此处使用数学的方式给予答案,如公式4-1所示。

 

    (公式4-1)

 

该公式称之为霍夫丁不等式(Hoeffding's Inequality),其中P为概率符号, 表示的接近程度, 为此程度的下界,N表示样本数量,其中不等式左边表示 之间相差大于某值时的概率。从该不等式不难得出,随着样本量的增大, 相差较大的概率就不断变小。两者相差越多,即越大,该概率越低,就意味着 相等的结论大概近似正确(probably approximately correct PAC)。

同时可以得出当N足够大时,能够从已知的 推导出未知的

 

4.3 Connection to Learning

联系到机器学习上。

上一节得出的结论可以扩展到其他应用场景,其中包括机器学习。

为方便理解,做一个对比表,如表4-1所示。

 

表4-1 机器学习与统计中的对比

罐子小球

机器学习

未知的橙色小球比例

某一确定的假设在整个X输入空间中,输入向量x满足条件 的占整个输入空间的比例

抽取的小球∈整个罐子中的小球

训练输入样本集 整个数据集X

橙色小球

假设h作用于此输入向量x与给定的输出不相等

绿色小球

假设h作用于此输入向量x与给定的输出相等

小球样本是从罐子中独立随机抽取的

输入样本x是从整个数据集D中独立随机选择的

 

更通俗一点的解释上表表达的内容:训练输入样本集类比随机抽取的小球样本;此样本集中,先确定一个假设函数h,满足条件的输入向量x占整个样本的比例类比于橙色小球在随机抽取小球样本的比例,写成公式的形式可以入公式4-2所示;因此使用上一节中的PAC((可能近似正确的理论),在整个输入空间中这个固定的假设函数h同目标函数f不相等的输入量占整个输入空间数量的概率 的取值如公式4-3所示)与上述随机样本中两个函数不相等的样本数占抽样数的比例 相同,这一结论也是大概近似正确的。

 

(公式4-2)

(公式4-3)

 

其中N为随机独立抽样的样本数,X为整个输入空间, 满足条件为1否则为0,E为取期望值。

对1.4节的机器学习流程图进行扩展,得到如图4-2所示。

 

图4-2 引入统计学知识的机器学习流程图

 

其中虚线表示未知概率P对随机抽样以及概率 的影响,实线表示已经随机抽出的训练样本及某一确定的假设对比例 的影响。

得出的结论如下:对任意已确定的假设函数h,都可以通过已知的求出未知的

以后我们将使用 这种专业的符号,分别表示在某一确定的假设函数h中,随机抽样得到的样本错误率和整个输入空间的错误率,同样可以使用霍夫丁不等式对以上得到的结论做出相应的数学表达,如公式4-4所示。

 

    (公式4-4)

 

但是,我们想得到的不是给定一个已确定的假设函数h,通过样本的错误比例来推断出在整个输入空间上的错误概率,而是在整个输入空间上同目标函数f最接近的假设函数h。

那如何实现最接近呢?说白了错误率最低。只需在上述结论上再加一个条件,即错误比例 很小即可。总结下,在结论基础之上,加上 很小,可以推出 也很小,即在整个输入空间中h≈f。

上面说了那么多,可能很多人已经糊涂了,因为这并不是一个学习问题,而是一个固定假设函数h,判断该假设函数是否满足上述性质,这准确的讲是一种确认(Verification),确实如此,这种形式不能称为学习,如图4-3所示。

 

图4-3 确认流程图

 

4.4 Connection to Real Learning

联系到真正的学习上。

首先我们要再次确认下我们上一小节确定的概念,要寻找的是一个使得 很小的假设函数h,这样就可以使得h和目标函数f在整个输入空间中也很接近。

继续以丢硬币为例,形象的观察这种学习方法有无问题,如图4-4所示。

 

图4-4 丢硬币的例子

 

假设有150个人同时丢五次硬币,统计其中有一个人丢出五次全部正面向上的概率是多少,不难得出一个人丢出五次正面向上的概率为 ,则150人中有一人丢出全正面向上的概率为

这其中抛出正面类比于绿色小球的概率也就是。当然从选择的角度肯定要选择犯错最小的,即正面尽可能多的情况,此例中不难发现存在全部都为正面的概率是非常大的,此处应注意,选择全为正面的或者说 为0 并不正确(因为想得到的结果是 ,而不是99%)这一结论与真实的情况或者说 差的太远(我们不仅仅要满足 很小条件,同时还要使得 不能有太大差距)。因此这种不好的样本的存在得到了很糟糕的结果。

上面介绍了坏的样例(bad sample),把本来很高的,通过一个使得的坏抽样样本进行了错误的估计。

到底是什么造成了这种错误,要深入了解。我们还需要介绍坏的数据(bad data)的概念。(这里写一下自己的理解,坏的样本bad sample∈坏的数据bad data)

坏的数据就是使得 相差很大时,抽样到的N个输入样本(我的理解不是这N个输入样本都不好,可能只是有几个不好的样本,导致该次抽样的数据产生不好的结果,但此次抽样的数据集被统一叫做坏的数据),根据霍夫丁不等式这种情况很少出现,但是并不代表没有,特别是当进行假设函数的选择时,它的影响会被放大,以下进行一个具体的说明,如表4-2所示。

 

表4-2 单个假设函数时的霍夫丁不等式

 

D1

D2

D1126

D5678

霍夫丁

h

BAD

    

BAD

 

 

计算所有不好的D出现的概率如公式4-5所示。

 

    (公式4-5)

 

单一假设函数中不好的D出现的概率其实不算高,但是当在做选择时,面对的是从整个假设空间选出的无数种可能的假设,因此不好D的计算就有所改变,当然我们先讨论假设函数是有限多种的情况,如表4-3所示。

 

表4-3 M个假设情况下的霍夫丁不等式

 

D1

D2

D1126

D5678

霍夫丁

 

BAD

    

BAD

 

  

BAD

     

 

BAD

BAD

   

BAD

 

 

        
 

BAD

    

BAD

 

ALL

BAD

BAD

   

BAD

 

?

 

这其中包含了M个假设,而不好的D不是由单一假设就确定的,而是只要有一个假设在此抽样D上表现不好则该抽样被标记为坏的,因此霍夫丁不等式如公式4-6所示。

 

(联合上界)

    (公式4-6)

 

因此如果|H|=M的这种有限情况下,抽样样本N足够大时,可以确保假设空间中每个假设都满足

如果通过算法找出的g满足 ,则通过PAC的规则可以保证

下载方式:https://pan.quark.cn/s/a4b39357ea24 布线问题(分支限界算法)是计算机科学和电子工程领域中一个广为人知的议题,它主要探讨如何在印刷电路板上定位两个节点间最短的连接路径。 在这一议题中,电路板被构建为一个包含 n×m 个方格的矩阵,每个方格能够被界定为可通行或不可通行,其核心任务是定位从初始点到最终点的最短路径。 分支限界算法是处理布线问题的一种常用策略。 该算法与回溯法有相似之处,但存在差异,分支限界法仅需获取满足约束条件的一个最优路径,并按照广度优先或最小成本优先的原则来探索解空间树。 树 T 被构建为子集树或排列树,在探索过程中,每个节点仅被赋予一次成为扩展节点的机会,且会一次性生成其全部子节点。 针对布线问题的解决,队列式分支限界法可以被采用。 从起始位置 a 出发,将其设定为首个扩展节点,并将与该扩展节点相邻且可通行的方格加入至活跃节点队列中,将这些方格标记为 1,即从起始方格 a 到这些方格的距离为 1。 随后,从活跃节点队列中提取队首节点作为下一个扩展节点,并将与当前扩展节点相邻且未标记的方格标记为 2,随后将这些方格存入活跃节点队列。 这一过程将持续进行,直至算法探测到目标方格 b 或活跃节点队列为空。 在实现上述算法时,必须定义一个类 Position 来表征电路板上方格的位置,其成员 row 和 col 分别指示方格所在的行和列。 在方格位置上,布线能够沿右、下、左、上四个方向展开。 这四个方向的移动分别被记为 0、1、2、3。 下述表格中,offset[i].row 和 offset[i].col(i=0,1,2,3)分别提供了沿这四个方向前进 1 步相对于当前方格的相对位移。 在 Java 编程语言中,可以使用二维数组...
源码来自:https://pan.quark.cn/s/a4b39357ea24 在VC++开发过程中,对话框(CDialog)作为典型的用户界面组件,承担着与用户进行信息交互的重要角色。 在VS2008SP1的开发环境中,常常需要满足为对话框配置个性化背景图片的需求,以此来优化用户的操作体验。 本案例将系统性地阐述在CDialog框架下如何达成这一功能。 首先,需要在资源设计工具中构建一个新的对话框资源。 具体操作是在Visual Studio平台中,进入资源视图(Resource View)界面,定位到对话框(Dialog)分支,通过右键选择“插入对话框”(Insert Dialog)选项。 完成对话框内控件的布局设计后,对对话框资源进行保存。 随后,将着手进行背景图片的载入工作。 通常有两种主要的技术路径:1. **运用位图控件(CStatic)**:在对话框界面中嵌入一个CStatic控件,并将其属性设置为BST_OWNERDRAW,从而具备自主控制绘制过程的权限。 在对话框的类定义中,需要重写OnPaint()函数,负责调用图片资源并借助CDC对象将其渲染到对话框表面。 此外,必须合理处理WM_CTLCOLORSTATIC消息,确保背景图片的展示不会受到其他界面元素的干扰。 ```cppvoid CMyDialog::OnPaint(){ CPaintDC dc(this); // 生成设备上下文对象 CBitmap bitmap; bitmap.LoadBitmap(IDC_BITMAP_BACKGROUND); // 获取背景图片资源 CDC memDC; memDC.CreateCompatibleDC(&dc); CBitmap* pOldBitmap = m...
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值