《机器学习》+周志华+第五章习题+5.5实现标准BP算法和累积BP算法

本文通过编程实现标准BP算法和累积BP算法,利用西瓜数据集3.0训练单隐层神经网络,详细比较两种算法的性能和效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

5.5 试编程实现标准BP算法和累积BP算法,在西瓜数据集3.0上分别用这两个算法训练一个单隐层网络,并进行比较。
给定训练集D={(x1,y1),(x2,y2),......,(xm,ym)},其中输入示例由d个属性描述,输出l为实质向量。
图中拥有d个输入神经元、l个输出神经元、q个隐层神经元的多层前馈网络结构。
θj:表示输出层第j个神经元的阈值。
γh:表示隐层第h个神经元的阈值。
Vih:输入层第i个神经元与隐层第h个神经元直接的连接权值。
Whj:隐层第h个神经元与输出层第j个神经元之间的连接权值。

BP算法每次迭代都计算一个样本,最小化该样本输出值与真实值的差距,然后将修改过的参数传给下一个样本,直到达到收敛条件。这样做参数更新频繁,也可能出现参数更改相互抵消的情况,于是有了累积误差逆传播算法(ABP)。
ABP算法每次迭代都会先算出所有样本的输出,然后最小化整个样本输出与真实值的最小平方和,修改参数后进行下一次迭代。ABP参数更新次数比BP算法少的多,但是当累积误差降到一定程度时,进一步下降会非常缓慢。
迭代终止的条件:这里设置的终止条件是相邻一百次迭代的均方误差的差值不超过0.0001。
BP算法MATLAB语言:
clear

x = xlsread('E:\machine_learning\BP\watermelon3.0.xlsx', 'Sheet1', 'A1:Q8');
y = xlsread('E:\machine_learning\BP\watermelon3.0.xlsx', 'Sheet1', 'A9:Q9');
x=x';     %x进行转置 
y=y';     %y进行转置
%将y设置为0,1两类
y=y-1;
%获取输入参数的样本数与参数数
[m,d]=size(x);    %m是x矩阵的行数,表示总共有多少个训练集。d是矩阵的列数,表示训练集的输入。

OutputLayerNum=1;  %输出层神经元

v=rand(d,d+1);                      %输入层与隐层的权值,v是一个d行d+1列矩阵
w=rand(d+1,OutputLayerNum);         %隐层与输出层的权值,w是一个d+1行1列矩阵
gamma=rand(d+1);                    %隐层阈值,gamma是d+1行1列矩阵
theta=rand(OutputLayerNum);         %输出层阈值,theta是1行1列矩阵
py=zeros(m,OutputLayerNum);         %输出层输出
b=zeros(d+1);                       %隐层输出
g=zeros(OutputLayerNum);            %均方误差对w,gamma求导的参数
e=zeros(d+1);                       %均方误差对v,theta求导的参数

eta=1;                               %学习率


kn=0;        %迭代的次数
sn=0;        %同样的均方误差值累积次数
previous_E=0; %前一次迭代的累计误差
while(1)
    kn=kn+1;
    E=0;      %当前迭代的均方误差
    for i=1:m
      %计算隐层输出
      for j=1:d+1
        alpha=0;   %当前一个隐层节点神经元的输入
        for k=1:d
          alpha=alpha+v(k,j)*x(i,k);
         en
### 关于周志华机器学习第五章5.5节的内容解读 #### 5.5 集成方法 (Ensemble Methods) 在机器学习领域,集成方法是一种通过组合多个模型预测结果的技术,旨在提高整体性能并减少泛化误差。该章节主要探讨了几种重要的集成策略及其理论基础。 #### 提升算法(Boosting) 提升算法是一类迭代式的集成技术,在每一轮训练中赋予不同样本不同的权重,使得分类器更加关注之前被错误分类的数据点。AdaBoost作为最早也是最著名的代表之一,通过调整误分实例权值得到一系列弱分类器,并最终加权投票形成强分类器[^1]。 #### Bagging 随机森林(Random Forest) Bagging即Bootstrap Aggregating, 是一种基于重采样的集成方式。对于给定数据集,bagging会创建若干子样本用于独立训练基估计量;而随机森林则是在决策树基础上进一步引入特征随机选取机制,从而降低过拟合风险并增强多样性。 #### Stacking Stacking 或堆叠泛化是一种更复杂的元学习框架,允许利用初级层多种类型的个体学习者输出作为次级层输入来进行更高层次的学习任务建模。这种方法能够充分利用不同类型模型的优势,达到更好的表现效果。 ```python from sklearn.ensemble import RandomForestClassifier, AdaBoostClassifier from sklearn.datasets import make_classification from sklearn.model_selection import train_test_split X, y = make_classification(n_samples=1000, n_features=20, n_informative=2, n_redundant=10, random_state=42) X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) rf_clf = RandomForestClassifier() ada_clf = AdaBoostClassifier() rf_clf.fit(X_train, y_train) ada_clf.fit(X_train, y_train) ```
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值