分类与预测中的梯度下降及规则分类方法
在分类与预测的领域中,有多种方法可以帮助我们对数据进行分析和处理,本文将详细介绍梯度下降方法以及基于规则的分类方法。
梯度下降方法
梯度下降方法采用贪心爬山策略,在每一次迭代中,算法会朝着当前看起来最优的解决方案前进,而不会回溯。在每次迭代时,权重会被更新,最终收敛到一个局部最优解。
对于我们的问题,需要最大化 $P_w(D) = \prod_{d = 1}^{|D|} P_w(X_d)$。通过遵循 $\ln P_w(S)$ 的梯度来实现这一目标,能使问题简化。给定网络拓扑结构和初始化的 $w_{ijk}$,算法步骤如下:
1. 计算梯度 :对于每个 $i$、$j$、$k$,计算
$\frac{\partial \ln P_w(D)}{\partial w_{ijk}} = \sum_{d = 1}^{|D|} \frac{P(Y_i = y_{ij}, U_i = u_{ik}|X_d)}{w_{ijk}}$。
等式右边的概率需要为训练集中的每个元组 $X_d$ 进行计算。当 $Y_i$ 和 $U_i$ 所代表的变量对于某些 $X_d$ 是隐藏的时,可以使用贝叶斯网络推理的标准算法,如商业软件包 HUGIN 中的算法,从元组的观测变量中计算相应的概率 $p$。
2. 沿梯度方向迈出一小步 :权重通过以下公式更新
$w_{ijk} \leftarrow w_{ijk} + (l) \frac{\partial \ln P_w(D)}{\partial w_{ijk}}$,
其中 $l$ 是学习率,表示步长,$
超级会员免费看
订阅专栏 解锁全文
1688

被折叠的 条评论
为什么被折叠?



