- 博客(5)
- 收藏
- 关注
原创 周志华《机器学习》总结——五、神经网络
感知机(Perceptron)是由两层神经元组成的一个简单模型,输入层接收外界输入信号后传递给输出层,输出层是M-P神经元,进行激活函数处理。输入层的神经元个数等于样本的属性数目。(感知机与之前线性模型中的对数几率回归的思想基本是一样的,都是通过对属性加权与另一个常数求和,再使用sigmoid函数将这个输出值压缩到0-1之间,从而解决分类问题。不同的是感知机的输出层应该可以有多个神经元,从而可以实现多分类问题,同时两个模型所用的参数估计方法十分不同。
2025-04-07 21:03:50
801
原创 周志华《机器学习》总结——三、线性模型
最为经典的拆分策略有三种:“一对一”(OvO)、“一对其余”(OvR)和“多对多”(MvM),核心思想与示意图如下所示。OvO:给定有N个真实类别的数据集D,将这N个类别进行两两配对(一个正类/一个反类),从而产生N(N-1)/2个二分类学习器,在测试阶段,将新样本放入所有的二分类学习器中测试,得出N(N-1)/2个结果,最终通过投票产生最终的分类结果。
2025-04-05 19:04:57
924
原创 周志华《机器学习》总结——二、模型的评估与选择
学习器对样本的实际预测结果与样本的真实值之间的差:误差(error)。定义:训练误差(training error)或经验误差(empirical error):在训练集上的误差测试误差(test error):在测试集上的误差泛化误差(generalization error):学习器在所有新样本上的误差,希望泛化误差尽量小在过拟合问题中,训练误差十分小,但测试误差教大;在欠拟合问题中,训练误差和测试误差都比较大。
2025-04-03 21:55:41
1101
原创 周志华《机器学习》总结——一周学完西瓜书
人的“经验”对应计算机中的“数据”,让计算机来学习这些经验数据,生成一个算法模型,在面对新的情况中,计算机便能作出有效的判断,这便是机器学习。P:计算机程序在某任务类T上的性能。T:计算机程序希望实现的任务类。E:表示经验,即历史的数据集。若该计算机程序通过利用经验E在任务T上获得了性能P的改善,则称该程序对E进行了学习。
2025-04-03 14:49:45
858
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人