周志华《机器学习》第一章 绪论 笔记及习题解答

本文深入探讨了机器学习中的核心概念,包括假设空间、版本空间和数据集等基本术语的定义,通过具体实例阐述了如何形成版本空间,并讨论了假设表示、归纳偏好以及机器学习在互联网搜索中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

基本术语

假设空间

  训练集中的全部特征的可能取值所形成的假设,加上 ∅ \emptyset (指根本不存在“正例”这个概念) 这种极端假设,所形成的集合叫做假设空间。

版本空间

  在假设空间中删除与正例不一致的假设、和(或)与反例一致的假设,最终将会获得一个能够对所有训练集样本正确分类的一个假设集合,这个集合叫做版本空间。

数据集(训练集)

表1.1 西瓜数据集
编号色泽根蒂敲声好瓜
1青绿蜷缩浊响
2乌黑蜷缩浊响
3青绿硬挺清脆
4乌黑稍蜷沉闷

习题解答

1.1 表1.1中若只包含编号为1和4两个样例,试给出相应的版本空间.

  1. 若只包含1和4,则训练集如下:
编号色泽根蒂敲声好瓜
1青绿蜷缩浊响
4乌黑稍蜷沉闷
  1. 因为版本空间是假设空间经过删除与正例不一致的假设、和(或)与反例一致的假设所形成的,所以要得到假设空间:
    色泽、根蒂、敲声 分别有2、2、2种可能取值,有可能每个特征的特征值无论取什么值都合适,此外再加上 ∅ \emptyset 情况,所以假设空间规模大小为(2+1) × \times ×(2+1) × \times ×(2+1)+1 = 28,如下:

    假设1 色泽=\*,根蒂=\*,敲声=\*
    假设2 色泽=\*,根蒂=\*,敲声=浊响
    假设3 色泽=\*,根蒂=\*,敲声=沉闷
    假设4 色泽=\*,根蒂=蜷缩,敲声=\*
    假设5 色泽=\*,根蒂=蜷缩,敲声=浊响
    假设6 色泽=\*,根蒂=蜷缩,敲声=沉闷
    假设7 色泽=\*,根蒂=稍蜷,敲声=\*
    假设8 色泽=\*,根蒂=稍蜷,敲声=浊响
    假设9 色泽=\*,根蒂=稍蜷,敲声=沉闷
    假设10 色泽=青绿,根蒂=\*,敲声=\*
    假设11 色泽=青绿,根蒂=\*,敲声=浊响
    假设12 色泽=青绿,根蒂=\*,敲声=沉闷
    假设13 色泽=青绿,根蒂=蜷缩,敲声=\*
    假设14 色泽=青绿,根蒂=蜷缩,敲声=浊响
    假设15 色泽=青绿,根蒂=蜷缩,敲声=沉闷
    假设16 色泽=青绿,根蒂=稍蜷,敲声=\*
    假设17 色泽=青绿,根蒂=稍蜷,敲声=浊响
    假设18 色泽=青绿,根蒂=稍蜷,敲声=沉闷
    假设19 色泽=乌黑,根蒂=\*,敲声=\*
    假设20 色泽=乌黑,根蒂=\*,敲声=浊响
    假设21 色泽=乌黑,根蒂=\*,敲声=沉闷
    假设22 色泽=乌黑,根蒂=蜷缩,敲声=\*
    假设23 色泽=乌黑,根蒂=蜷缩,敲声=浊响
    假设24 色泽=乌黑,根蒂=蜷缩,敲声=沉闷
    假设25 色泽=乌黑,根蒂=稍蜷,敲声=\*
    假设26 色泽=乌黑,根蒂=稍蜷,敲声=浊响
    假设27 色泽=乌黑,根蒂=稍蜷,敲声=沉闷
    假设28  ∅ \emptyset

  1. 版本空间
    删除与编号1(正例)相反的假设:3、6-9、12、15、16-28
    删除与编号4(反例)相同的假设:1
    版本空间为剩余假设:2、4、5、10、11、13、14 七种
    用合取式表示为:
    (色泽=*) ^ (根蒂=*) ^ (敲声=浊响)
    (色泽=*) ^ (根蒂=蜷缩) ^ (敲声=*)
    (色泽=*) ^ (根蒂=蜷缩) ^ (敲声=浊响)
    (色泽=青绿) ^ (根蒂=*) ^ (敲声=*)
    (色泽=青绿) ^ (根蒂=*) ^ (敲声=浊响)
    (色泽=青绿) ^ (根蒂=蜷缩) ^ (敲声=*)
    (色泽=青绿) ^ (根蒂=蜷缩) ^ (敲声=浊响)

1.2 与使用单个合取式来进行假设表示相比,使用“析合范式”将使得假设空间具有更强的表示能力。若使用最多包含k个合取式的析合范式来表达表1.1的西瓜分类问题的假设空间,试估算有多少种可能的假设。

  • 不考虑冗余
    表1.1共3个特征,假设空间中有3∗4∗4+1=49种假设。k的最大值是49,每次从中选出k个来组成析合式,即 Σ \Sigma Σ C 49 k C_{49}^{k} C49k k最大为49,根据二项式定理得249种假设
  • 考虑冗余
    //todo

1.3 若数据包含噪声,则假设空间中可能不存在与所有训练样本都一致的假设。在此情形下,试设计一种归纳偏好用于假设选择。

  • 去掉噪声数据
  • 将噪声值变为特征值最多的值

1.4 试证明"没有免费的午餐"

西瓜书P8说到,一个学习算法 ξ a \xi_a ξa若在某些问题上比算法 ξ b \xi_b ξb好,则必然另存在一些问题算法 ξ b \xi_b ξb比算法 ξ a \xi_a ξa要好,这个结论对任何算法都成立。

以下公式含义:算法 ξ a \xi_a ξa学得的假设在训练集外的所有样本上的误差的期望
E o t e ( ξ a ∣ X , f ) E_{ote}\left (\xi_a|X,f\right) Eote(ξaX,f) = ∑ h \sum_h h ∑ x ∈ χ − X \sum_{x\in \chi-X} xχX P P P( x x x) I I ( II( II( h h h( x x x) ≠ \neq ̸= f ( x ) ) f(x)) f(x)) P P P( h h h| X X X, ξ a \xi_a ξa)

ξ a \xi_a ξa:学习算法a。
P P P( h h h| X X X, ξ a \xi_a ξa):首先 P P P是概率,是算法 ξ a \xi_a ξa基于训练集 X X X,产生出假设 h h h的概率。我的个人理解是:就像假设空间产生版本空间一样,所以产生版本空间的每一个假设的概率和为1,即 ∑ h \sum_h h P P P( h h h| X X X, ξ a \xi_a ξa)=1。
f ( x ) f(x) f(x):真实值
I I ( II( II( h h h( x x x) ≠ \neq ̸= f ( x ) ) f(x)) f(x)) : 若预测值 h h h( x x x) ≠ \neq ̸=真实值 f ( x ) f(x) f(x)为真 I I ( II( II( h h h( x x x) ≠ \neq ̸= f ( x ) ) f(x)) f(x))=1,否则等于0。
P ( x ) P(x) P(x) x ∈ χ − X x\in \chi-X xχX x x x X X X训练集中的元素, P ( x ) P(x) P(x)即假设 x x x在假设空间被取到的概率。

剩余的便是求和 ∑ \sum 部分, 为便于理解,先举一个小例子:
∑ i m \sum_{i}^m im ∑ j o \sum_{j}^o jo ∑ k n \sum_{k}^n kn a i a_i ai b j b_j bj c k c_k ck
= ∑ i m \sum_{i}^m im a i a_i ai ∑ j o \sum_{j}^o jo b j b_j bj ∑ k n \sum_{k}^n kn c k c_k ck
= ( a 1 + a 1 + . . . + a m ) ( b 1 + a 1 + . . . + b j ) ( c 1 + c 1 + . . . + c k ) (a_1+a_1+...+a_m)(b_1+a_1+...+b_j)(c_1+c_1+...+c_k) (a1+a1+...+am)(b1+a1+...+bj)(c1+c1+...+ck)
= ( a 1 b 1 c 1 ) ( a 1 b 1 c 2 ) . . . ( a m b j c k ) (a_1b_1c_1)(a_1b_1c_2)...(a_mb_jc_k) (a1b1c1)(a1b1c2)...(ambjck)
理解上述例子推导在来看这个公式:
∑ f \sum_f f E o t e ( ξ a ∣ X , f ) E_{ote}\left (\xi_a|X,f\right) Eote(ξaX,f)
= ∑ f \sum_f f ∑ h \sum_h h ∑ x ∈ χ − X \sum_{x\in \chi-X} xχX P P P( x x x) I I ( II( II( h h h( x x x) ≠ \neq ̸= f ( x ) ) f(x)) f(x)) P P P( h h h| X X X, ξ a \xi_a ξa)
= ∑ x ∈ χ − X \sum_{x\in \chi-X} xχX P P P( x x x) ∑ h \sum_h h P P P( h h h| X X X, ξ a \xi_a ξa) ∑ f \sum_f f I I ( II( II( h h h( x x x) ≠ \neq ̸= f ( x ) ) f(x)) f(x))
= 1 2 ∗ 2 ∣ x ∣ \frac{1}{2}*2^{|x|} 212x ∑ x ∈ χ − X \sum_{x\in \chi-X} xχX P P P( x x x) ∑ h \sum_h h P P P( h h h| X X X, ξ a \xi_a ξa)
= 2 ∣ x ∣ − 1 2^{|x|-1} 2x1 ∑ x ∈ χ − X \sum_{x\in \chi-X} xχX P P P( x x x)
最后推导出的结果与算法 ξ a \xi_a ξa无关!

1.5 机器学习在互联网搜索的哪些环节起什么作用

  • sao排名
  • 个性化推荐
  • tf-idf关键词提取




如有错误欢迎指正
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值