
machine learning
文章平均质量分 69
gangeqian2
欢迎来到我的博客,共同学习
展开
-
DBSCAN密度聚类示例深入理解
DBSCAN 是基于密度聚类的算法特点:1、无需指定簇的个数2、生成的簇数不确定3、对非凸数据集聚类效果不错核心思想:DBSCAN算法将数据点分为三类: 1.核心点:在半径Eps内含有超过MinPts数目的点。 2.边界点:在半径Eps内点的数量小于MinPts,但是落在核心点的邻域内的点。 3.噪音点:既不是核心点也不是边界点的点。 如下图所示,Eps=5, MinPts=5算法流程:1.将所有点标记为核心点、边界点或噪声点;2.删除噪声点;3.每组连通的核心点形成一个原创 2021-09-26 20:13:58 · 3317 阅读 · 0 评论 -
Tensorflow 及卷积神经网络入门
分享一篇文章面向普通开发者的机器学习入门,https://www.jianshu.com/p/05314e94cee9转载 2018-02-04 22:51:08 · 313 阅读 · 0 评论 -
正则化方法 (二)
最近在研读西瓜书特征选择与稀疏学习,对于正则化这一内容颇有不解,这篇大作可谓图文并茂,通俗易懂,研读之外转载分享。1. The Problem of Overfitting1还是来看预测房价的这个例子,我们先对该数据做线性回归,也就是左边第一张图。如果这么做,我们可以获得拟合数据的这样一条直线,但是,实际上这并不是一个很好的模型。我们看看这些数据,很明显,随转载 2017-12-24 10:12:15 · 502 阅读 · 0 评论 -
正则化方法 (一)
1. 正则化的目的:防止过拟合!2. 正则化的本质:约束(限制)要优化的参数。关于第1点,过拟合指的是给定一堆数据,这堆数据带有噪声,利用模型去拟合这堆数据,可能会把噪声数据也给拟合了,这点很致命,一方面会造成模型比较复杂(想想看,本来一次函数能够拟合的数据,现在由于数据带有噪声,导致要用五次函数来拟合,多复杂!),另一方面,模型的泛化性能太差了(本来是一次函数生成的数转载 2017-12-24 09:08:22 · 1457 阅读 · 0 评论 -
降维——局部线性嵌入(LLE)
局部线性嵌入(LLE)原理总结 局部线性嵌入(Locally Linear Embedding,以下简称LLE)也是非常重要的降维方法。和传统的PCA,LDA等关注样本方差的降维方法相比,LLE关注于降维时保持样本局部的线性特征,由于LLE在降维时保持了样本的局部特征,它广泛的用于图像图像识别,高维数据可视化等领域转载因公式格式问题无法直接复制过来,给出原文链转载 2017-12-17 14:53:26 · 682 阅读 · 0 评论 -
降维——多维缩放MDS
转载自 http://blog.youkuaiyun.com/victoriaw/article/details/78500894多维缩放(Multidimensional Scaling, MDS)是一组对象之间的距离的可视化表示,也可以当做一种无监督降维算法使用。为了直观了解MDS,给一个简单例子。假设现在给定一组城市之间的距离信息如下: 现在要求绘制一幅地图,在地图中标出所有转载 2017-12-14 23:06:21 · 826 阅读 · 0 评论 -
机器学习 矩阵奇异值分解(SVD)及其应用
矩阵奇异值分解(SVD)及其应用 PCA 主成分分析是降维的常用方法,再网上搜了几篇文章,不少过于学术,读到这篇通俗易懂,转载共学。版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 转载请注明出处,如果有问题,请联系wheeleast@gmail.com。前言: PCA转载 2017-12-13 22:56:57 · 1047 阅读 · 0 评论