35、写出线性分类器的方程来实现以下功能:1. 布尔属性x1, …, x5中至少有两个为真;2. 布尔属性x1, …, x6中至少有三个为真,且其中至少有一个为假。
对于“布尔属性x1, …, x5中至少有两个为真”,方程为
$$ x_1 + x_2 + x_3 + x_4 + x_5 \geq 2 $$
对于“布尔属性x1, …, x6中至少有三个为真,且其中至少有一个为假”,可拆分为两个条件:
-
至少三个为真,方程为
$$ x_1 + x_2 + x_3 + x_4 + x_5 + x_6 \geq 3 $$ -
至少有一个为假,方程为
$$ x_1 + x_2 + x_3 + x_4 + x_5 + x_6 \leq 5 $$
综合起来就是
$$ 3 \leq x_1 + x_2 + x_3 + x_4 + x_5 + x_6 \leq 5 $$
36、手动模拟感知机学习算法的过程,从一个初始权重集开始,也尝试使用不同的学习率。
下面是给定的【文本内容】:
假设新的初始权重,如 $ w_0 = 0.2 $、$ w_1 = 0.4 $、$ w_2 = 0.5 $,新的学习率 $ \alpha = 0.3 $。对于每个训练示例 $ \mathbf{x} = (x_1, x_2) $ 及其类别 $ c(\mathbf{x}) $:
- 若 $ \sum_{i=0}^{n} w_i x_i > 0 $,令 $ h(\mathbf{x}) = 1 $;否则 $ h(\mathbf{x}) = 0 $。
- 使用公式 $ w_i = w_i + \alpha [c(\mathbf{x}) - h(\mathbf{x})] \cdot x_i $ 更新每个权重。
- 若所有训练示例都满足 $ c(\mathbf{x}) = h(\mathbf{x}) $,则停止;否则返回步骤 2。
37、再次进行相同的练习,这次使用 WINNOW 算法。不要忘记为感知机中负权重对应的部分引入额外的“属性”。
结合之前练习的具体要求和数据,按照 WINNOW 算法 的权重更新机制进行操作,对于感知机中负权重问题,用一对“新”属性表示原属性来处理。
38、在独立测试示例中,线性分类器何时可能比多项式分类器具有更好的分类性能?
一般来说,当数据的类边界是线性可分,或者数据维度较低、样本数量较少且噪声较小时,线性分类器可能表现更好;而多项式分类器在处理非线性可分数据时更有优势,但容易出现过拟合问题,当数据存在过拟合风险时,线性分类器可能更合适。
39、创建一个由20个示例组成的训练集,每个示例由五个二元属性x1, …, x5描述。若一个示例中至少有三个属性的值xi = 1,则将其标记为正例,其他示例标记为负例。以这个训练集作为输入,使用感知机学习算法诱导一个线性分类器。对不同的学习率α进行实验。绘制一个函数图,横轴表示α,纵轴表示分类器正确分类所有训练示例所需的示例呈现次数。讨论实验结果。
实验要求
- 按照题目要求进行实验操作
- 创建训练集
- 使用感知机学习算法诱导线性分类器
- 改变学习率 α 进行实验
- 绘制函数图
- 对结果进行讨论
40、像手动模拟误差反向传播那样,针对以下两种情况重复计算:高输出层权重:w(1)11 = 3.0;w(1)12 = -3.0;w(1)21 = 3.0;w(1)22 = 3.0;低输出层权重:w(1)11 = 0.3;w(1)12 = -0.3;w(1)21 = 0.3;w(1)22 = 0.3。观察每种情况下权重的相对变化。
需根据误差反向传播的原理和方法,结合给定的高、低输出层权重值进行手动模拟计算,并观察权重的相对变化。
41、与多层感知器相比,比较径向基函数网络的优缺点。
多层感知器与径向基函数网络的比较
多层感知器的局限性
多层感知器使用误差反向传播算法存在以下问题:
- 计算成本高
- 存在局部极小值
- 过拟合风险
- 难以确定隐藏层大小
径向基函数网络的特点
径向基函数网络具有以下特性:
- 使用高斯函数作为隐藏层神经元的传递函数
- 输出层神经元可使用阶跃函数或线性函数
- 每个高斯中心对应一个训练示例
- 可随机选择示例
- 仅需训练一层权重
- 可应用支持向量机思想,形成基于径向基函数的支持向量机
优点
- 计算相对简单
- 训练权重层少
缺点
- 对训练示例的选择依赖较大
42、编写一个程序,为预定义数量的输出神经元和隐藏神经元实现误差反向传播。使用固定的学习率α。
程序编写步骤
可按以下步骤编写程序:
- 定义神经网络结构 ,包含输入层、预定义数量的隐藏层和输出层。
- 初始化网络权重 。
- 前向传播 :将输入数据传入网络,计算各层输出。
- 计算误差 :将网络输出与目标输出对比计算误差。
- 反向传播 :根据误差计算各神经元责任,并更新权重。
- 重复步骤3 - 5,直到满足终止条件。
在实现中使用固定学习率α更新权重。
43、对于给定的数据集,在多层感知机中试验不同数量的隐藏神经元,并观察它们如何影响网络的学习能力。
一般而言,隐藏神经元数量过少,网络缺乏足够灵活性,易陷入局部最小值,导致学习能力受限,测试集误差率高;隐藏神经元数量过多,网络易过拟合,虽然在训练集表现好,但在测试集误差率会升高。合适的隐藏神经元数量取决于训练数据的复杂度,有时仅 3 - 5 个神经元就能使误差率最小,而在其他情况下可能需要数百个。
44、再次对不同数量的隐藏神经元进行实验。这次,关注计算成本。网络收敛需要多少个训练周期?同时观察错误率的变化情况。
需进行实验,对不同数量隐藏神经元的网络进行训练,记录网络收敛所需的训练周期,并观察错误率的变化情况。

最低0.47元/天 解锁文章
1224

被折叠的 条评论
为什么被折叠?



