机器学习实战
文章平均质量分 85
LettyLin
好好生活OVO
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习第四节,Logistic 回归
最优化算法:解决最优化问题,例如如何在最短时间从A到达B?利用Logistic回归进行分类的只要思想是:根据现有数据对分类边界线建立回归公式,以此分类训练分类器:利用最优化算法寻找最佳拟合参数 梯度上升法用来求函数的最大值w:=w +α▽wf(w)梯度下降法用来求函数的最小值w:=w-α▽wf(w)梯度定义了移动的方向,α(步长)定义了移动的距离原创 2018-01-02 10:31:34 · 294 阅读 · 0 评论 -
机器学习第五节,支持向量机(SVM)
SVM:二类分类器,对多类问题应用SVM应该做一些修改 分隔超平面(separating hyperplane): 分类的决策边界间隔(margin): 点到分隔面的距离。我们希望间隔尽可能大支持向量(support vector): 离分隔超平面最近的那些点。 目标:最大化支持向量到分隔面的距离分隔超平面:wTx+b点到分隔面法线的长度:|wTx+b|/||w|| 为什么标签用-1和+1?不是0原创 2018-01-02 15:15:09 · 342 阅读 · 0 评论 -
机器学习实战第二节 决策树
度量数据集无序程度的方法:香农熵 (shannon entropy) 变量的不确定性越大,熵越大基尼不纯度 (Gini impurity)从一个数据集中随机选择子项,度量其被错误分类到其他分组里的概率。 递归构造决策树:得到原始数据集,然后基于最好的属性值划分数据集,由于特征值可能多于两个,因此可能存在大于两个分支的数据集原创 2017-12-28 14:54:53 · 342 阅读 · 0 评论 -
机器学习实战第一节,K近邻算法
KNN算法python实现及应用原创 2017-12-26 10:52:38 · 295 阅读 · 0 评论 -
机器学习实战第三节,朴素贝叶斯算法
【分类器给出一个最优的类别猜想结果,同时给出这个猜想的概率估计值】 之所以称为‘朴素’,是因为整个形式化过程只做最原始、最简单的假设适用:标称型数据朴素贝叶斯是贝叶斯决策理论的一部分 贝叶斯决策理论: 选择具有高概率的决策用p1(x, y)来表示数据点(x, y)属于类别1,用p2(x, y)来表示数据点(x, y)属于类别2如果p1(x, y)原创 2017-12-29 19:51:04 · 403 阅读 · 0 评论 -
二值图像的骨架提取
直接用python的skimage库中的morphology, 效果不好。明天再换个其他算法试试。# 骨架提取 效果不好。path = 'F:/0/'files = os.listdir(path)for i in range(len(files)): print(files[i]) file = Image.open(path+files[i]) f = file....原创 2018-03-16 14:47:54 · 8177 阅读 · 3 评论 -
线性回归预测数值型数据
所谓线性回归(linear regression),就是根据训练数据找到一组参数w,利用 y = w*s 对新数据进行预测。通常使用误差函数为平方误差:使该误差最小化,求导令其导数为零求得系数w,利用矩阵可以表示为:该过程成为普通最小二乘法(ordinary least squares,OLS) 由于OLS只能找到数据最佳拟合直线,所以应用有限。引入局部加权线性回归(Lo...原创 2018-09-25 16:30:47 · 3273 阅读 · 0 评论
分享