
机器学习实战
文章平均质量分 85
LettyLin
好好生活OVO
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习第四节,Logistic 回归
最优化算法:解决最优化问题,例如如何在最短时间从A到达B? 利用Logistic回归进行分类的只要思想是:根据现有数据对分类边界线建立回归公式,以此分类 训练分类器:利用最优化算法寻找最佳拟合参数 梯度上升法用来求函数的最大值 w:=w +α▽wf(w) 梯度下降法用来求函数的最小值 w:=w -α▽wf(w) 梯度定义了移动的方向,α(步长)定义了移动的距离原创 2018-01-02 10:31:34 · 276 阅读 · 0 评论 -
机器学习第五节,支持向量机(SVM)
SVM:二类分类器,对多类问题应用SVM应该做一些修改 分隔超平面(separating hyperplane): 分类的决策边界间隔(margin): 点到分隔面的距离。我们希望间隔尽可能大支持向量(support vector): 离分隔超平面最近的那些点。 目标:最大化支持向量到分隔面的距离分隔超平面:wTx+b点到分隔面法线的长度:|wTx+b|/||w|| 为什么标签用-1和+1?不是0原创 2018-01-02 15:15:09 · 323 阅读 · 0 评论 -
机器学习实战第二节 决策树
度量数据集无序程度的方法: 香农熵 (shannon entropy) 变量的不确定性越大,熵越大 基尼不纯度 (Gini impurity) 从一个数据集中随机选择子项,度量其被错误分类到其他分组里的概率。 递归构造决策树: 得到原始数据集,然后基于最好的属性值划分数据集,由于特征值可能多于两个,因此可能存在大于两个分支的数据集原创 2017-12-28 14:54:53 · 328 阅读 · 0 评论 -
机器学习实战第一节,K近邻算法
KNN算法python实现及应用原创 2017-12-26 10:52:38 · 283 阅读 · 0 评论 -
机器学习实战第三节,朴素贝叶斯算法
【分类器给出一个最优的类别猜想结果,同时给出这个猜想的概率估计值】 之所以称为‘朴素’,是因为整个形式化过程只做最原始、最简单的假设 适用:标称型数据 朴素贝叶斯是贝叶斯决策理论的一部分 贝叶斯决策理论: 选择具有高概率的决策 用p1(x, y)来表示数据点(x, y)属于类别1,用p2(x, y)来表示数据点(x, y)属于类别2 如果p1(x, y)原创 2017-12-29 19:51:04 · 392 阅读 · 0 评论 -
二值图像的骨架提取
直接用python的skimage库中的morphology, 效果不好。明天再换个其他算法试试。# 骨架提取 效果不好。 path = 'F:/0/' files = os.listdir(path) for i in range(len(files)): print(files[i]) file = Image.open(path+files[i]) f = file....原创 2018-03-16 14:47:54 · 8128 阅读 · 3 评论 -
线性回归预测数值型数据
所谓线性回归(linear regression),就是根据训练数据找到一组参数w,利用 y = w*s 对新数据进行预测。 通常使用误差函数为平方误差: 使该误差最小化,求导令其导数为零求得系数w,利用矩阵可以表示为: 该过程成为普通最小二乘法(ordinary least squares,OLS) 由于OLS只能找到数据最佳拟合直线,所以应用有限。引入局部加权线性回归(Lo...原创 2018-09-25 16:30:47 · 3257 阅读 · 0 评论