
机器学习
code-life
code-life
展开
-
1、SVM
一、总体概览1,定义一个函数间隔2、这是几何间隔,真正的距离如果超平面参数w和b成比例的改变(超平面没有改变),几何间隔不变3、函数间隔和几何间隔的关系几何间隔因为除上了,使得在缩放w和b的时候几何间隔的值是不会改变的,它只随着超平面的变动而变动4、目的是求的最大间隔分离超平面因为现在的目标函数是二次的,约束条件是线性的,所以它是一个凸二次规划问题5、考虑到几何间隔和函数间隔的关系,可进行一下转换...原创 2018-06-15 14:22:46 · 341 阅读 · 0 评论 -
2、LR-逻辑回归
一、细节1、逻辑回归(实际上应该叫对数机率回归),实际上是把线性回归只能做的回归问题转为分类问题线性回归问题是对给出的特征向量然后用权重向量与它相乘,最后得出的y值就是回归的值,而感知机则是设置一个阈值,对于输出的y值,大于阈值就是正类,小于它就是负类,而逻辑回归就是让输出的值等于几率的对数值,就是这个公式:2、看西瓜书3、逻辑回归假设数据服从伯努利分布(两点分布),通过极大化似然函数的方法,运用...原创 2018-06-15 14:31:17 · 472 阅读 · 0 评论 -
论文:CenterNet: Keypoint Triplets for Object Detection 阅读笔记
一、论文CenterNet: Keypoint Triplets for Object Detectionhttps://arxiv.org/abs/1904.08189code:https://github.com/Duankaiwen/CenterNet二、笔记1、背景1)、anchor-based方法anchor方法的复杂性2)、cornernet没有好好利...原创 2019-05-23 20:58:50 · 444 阅读 · 0 评论 -
集成学习---(Boosting) Adaboost
一、简介1、 AdaBoost就是损失函数为指数损失的Boosting算法(当然这是后话,意思是指数损失的前向分步算法和Adaboost一致)二、细节1、算法流程2、最重要的两点误差率:==(也就是在一轮过后,误差率直接用分错样本的权重想加就可以了)(1)、弱分类器的权重如何确定权重仅仅由该分类器的分类误差率e决定,e的范围应该是[0, 0.5],所...原创 2019-06-11 11:27:44 · 458 阅读 · 0 评论 -
集成学习---(Bagging) RandomForest
一、简介https://www.cnblogs.com/maybe2030/p/4585705.html鉴于决策树容易过拟合的缺点,随机森林采用多个决策树的投票机制来改善决策树,我们假设随机森林使用了m棵决策树,那么就需要产生m个一定数量的样本集来训练每一棵树,如果用全样本去训练m棵决策树显然是不可取的,全样本训练忽视了局部样本的规律,对于模型的泛化能力是有害的产生n个样本的方法采用B...原创 2019-06-11 11:29:40 · 403 阅读 · 0 评论 -
集成学习---综述
一、简介集成学习,顾名思义,通过将多个单个学习器集成/组合在一起,使它们共同完成学习任务,有时也被称为“多分类器系统(multi-classifier system)”、基于委员会的学习(Committee-based learning)。这里的【学习器】就是指机器学习算法训练得到的假设。而我们之所以有直觉要把多个学习器组合在一起,是因为单个学习器往往可能效果不那么好 这要么是因为它们具有...原创 2019-06-11 11:31:10 · 1904 阅读 · 0 评论