机器学习随笔

RNN

普通神经网络,各个输入没有运算连接。

RNN 可以考虑上文信息,实现了上文关联。

BiRNN 在RNN基础上添加了反向的运算,可以考虑下文信息,实现了上下文的关联。

RNN 很难完美处理具有长期依赖的信息。比如,当英文句子很长,RNN无法记住主语的单复数形式从而在后面选择合适的谓词。

LSTM (长短记忆网络)

仅仅依靠一条线连接后面的神经元不足以解决问题,那么就再加一条线好了,这就是LSTM

BiLSTM之一:模型理解_芳樽里的歌的博客-优快云博客_bilstm

BiLSTM是Bi-directional Long Short-Term Memory的缩写,是由前向LSTM与后向LSTM组合而成。

LSTM 与 Bilstm介绍(包含代码实现、Python)_墨痕诉清风的博客-优快云博客_lstm和bilstm

要是没有足够的数据量是用不上lstm的

Lstm 是深度学习模型

数据质量好的话也得十万

围棋是深度强化学习模型

高斯混合模型

高斯混合模型可用于异常检测;通过将模型拟合到数据集然后对新数据点进行评分,可以标记与其余数据显著不同的点(即异常值)。这对于识别欺诈或检测数据收集中的错误很有用。

随机森林

数据随机 特征随机

随机森林模型的优缺点,随机森林模型应用-天道酬勤-花开半夏

bagging算法更倾向于以偏差(标准差)低、方差高的模型作为基学习器

增强融合后模型的泛化能力,降低方差。

方差刻画了模型对数据扰动的敏感程度,越敏感说明数据的微小变动就能导致学习出的模型产生较大差异,因而方差大。

【集成学习】:bagging和boosting算法及对比

【集成学习】:bagging和boosting算法及对比_Mr_health的博客-优快云博客

Bagging和Boosting算法区别

(1)样本选择:

Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。

Boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化。而权值是根据上一轮的分类结果进行调整。

(2)样例权重:

Bagging:使用均匀取样,每个样例的权重相等

Boosting:根据错误率不断调整样例的权值,错误率越大则权重越大。

(3)预测函数:

Bagging:所有预测函数的权重相等。

Boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大的权重。

(4)并行计算:

Bagging:各个预测函数可以并行生成

Boosting:各个预测函数只能顺序生成,因为后一个模型参数需要前一轮模型的结果。

(5)预测结果:

Bagging:趋于降低方差,使模型更稳定。(各个基学习器并行训练,互不干扰,因此每个基学习器的误差实现对独立的。)

Boosting:趋于降低偏差,模型准确率更高。(采用向前分布算法,后一个基学习器需要优化前一个学习器的残差,因此误差越来越小,准确率会更高)

机器学习 刘建平 博客园

刘建平Pinard - 博客园

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值