
机器学习
文章平均质量分 76
机器学习相关知识
dabingsun
这个作者很懒,什么都没留下…
展开
-
根据数据的特性选择合适的机器学习方法(各机器学习模型比较)
根据数据选择模型:各模型之间的对比:原创 2020-03-31 22:16:34 · 3030 阅读 · 2 评论 -
面试问题总结
1:面试问题总结(面试前可以看一下):https://blog.youkuaiyun.com/Neekity/article/details/881820902.(很多实战和讲解的项目):https://github.com/NLP-LOVE/ML-NLP/tree/master/Machine%20Learning...原创 2020-03-29 15:55:32 · 103 阅读 · 0 评论 -
最优化问题与约束最优化(拉格朗日和KKT)
转载自:https://www.cnblogs.com/xinchen1111/p/8804858.html原创 2020-03-29 11:23:32 · 373 阅读 · 0 评论 -
RBM
https://blog.youkuaiyun.com/zb1165048017/article/details/66473906https://blog.youkuaiyun.com/bingo_csdn_/article/details/79443332?utm_source=blogxgwz9https://blog.youkuaiyun.com/xingzhedai/article/details/...原创 2020-03-28 10:35:04 · 1353 阅读 · 1 评论 -
GDBT
参考:https://blog.youkuaiyun.com/u014033218/article/details/88917953原创 2020-03-24 21:59:17 · 1518 阅读 · 0 评论 -
实体抽取、关系抽取和事件抽取概念
目录关系抽取关系抽取方法事件抽取及方法参考:读书笔记:关系抽取和事件抽取关系抽取定义:自动识别实体之间具有的某种语义关系。根据参与实体的多少可以分为二元关系抽取(两个实体)和多元关系抽取(三个及以上实体)。通过关注两个实体间的语义关系,可以得到(arg1, relation, arg2)三元组,其中arg1和arg2表示两个实体,relation表示实体间的语义关系。(...原创 2020-03-23 09:31:46 · 9983 阅读 · 1 评论 -
随机森林RF
随机森林概念RF使用了CART决策树作为弱学习器,并行的训练出多棵互相独立的树,最后通过投票得出结果,进一步在决策树的训练过程中引入了随机特征选择和样本选择。RF有两个随机采样过程: 行采样:采用有放回的方式,也就是在采样得到的样本集合中,可能有重复的样本 列采样: 从M个feature中,选择m个(m << M)通过样本的随机采样和特征的随机...原创 2020-03-22 10:16:46 · 331 阅读 · 0 评论 -
决策树与集成模型
概念公式推导损失函数常用划分节点的方法剪枝步骤优缺点xgboostGDBT随机森林原创 2020-03-22 10:15:12 · 435 阅读 · 0 评论 -
SVM支持向量机
SVM概念公式求解损失函数优缺点及比较原创 2020-03-29 15:14:46 · 580 阅读 · 0 评论 -
动态规划
目录概念要求抽象并求解例子:维特比算法概念百度百科动态规划所处理的问题是一个多阶段决策问题,一般由初始状态开始,通过对中间阶段决策的选择,达到结束状态。这些决策形成了一个决策序列,同时确定了完成整个过程的一条活动路线(通常是求最优的活动路线)。如图所示。动态规划的设计都有着一定的模式,一般要经历以下几个步骤。初始状态→│决策1│→│决策2│→…→│决策n│→...原创 2020-03-13 14:11:01 · 166 阅读 · 0 评论 -
Logistic回归
目录Logistic回归性质更详细:LRLogistic回归多元线性方程: sigmoid非线性激活函数: 假设函数:,这里假设表示预测为正例的概率,则w为预测为负例的概率。则最后整合表示为,表示预测为真实值的概率。值越大越好。 损失函数:似然函数为,对数似然函数:,概率越大越好,变换为损失函数为越小越好,即 反向梯度传播:损失函数对于参数的偏导数为,设学习率为,则更新...原创 2020-03-11 17:22:35 · 990 阅读 · 0 评论 -
sigmoid、Relu、Tanh、softmax激活函数的比较, 以及交叉熵损失函数
sigmoid原创 2020-03-06 22:42:29 · 3611 阅读 · 0 评论 -
学习率与batch_size对模型性能的影响
学习率学习率(lr)表示每次更新权重参数的尺度(步长),。Batch_size(批量大小)batch_size有一个计算公式,即, 或者 , N为训练数据集大小, batch为需要多少次迭代才能在一个epoch中训练完整个数据集。batch_size参数决定了完整训练数据集1个epoch需要多少个batch。学习率与batch_size在权重更新中的关系 学习率(lr)直...原创 2020-02-29 12:31:38 · 7579 阅读 · 0 评论 -
Bagging与Boosting提升方法的异同
Bagging与Boosting都是模型提升性能的方法,都可以将弱分类器集成到一起组成一个强分类器,分类效果好于单个弱分类器。定义Bagging(套袋模型)首先从数据集中抽取数据,共进行K次抽取,形成K个抽样数据集。(数据集之间相互独立,使用的是有放回的抽样方法) 使用K个数据集对K个弱分类器进行训练,最后得到K个基分类器。 使用投票法或者均值(或者加权均值)对K个分类器的结果进行组...原创 2019-11-19 17:01:46 · 869 阅读 · 0 评论