机器学习
文章平均质量分 78
数据分析师Weiss
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
DBSCAN 算法的原理
DBSCAN是一种基于密度的聚类算法,通过定义核心点、边界点和噪声点来识别任意形状的簇。算法需要设置邻域半径Eps和最小点数MinPts两个参数,核心思想是将密度相连的点划分为簇。其优势在于能处理噪声和发现任意形状簇,但参数选择困难且不适用于高维数据。确定Eps常采用K-距离曲线法,MinPts建议设为数据维度2倍以上。算法步骤包括寻找核心点、合并临时簇并最终形成聚类簇。DBSCAN不适合处理多密度数据集,且在大规模数据上计算效率较低。原创 2025-08-14 13:57:11 · 1068 阅读 · 0 评论 -
Sklearn的datasets模块与自带数据集介绍
sklearn的datasets模块下,有一些自带的经典数据集,可以用load_xxx()形式的函数加载,本文介绍了这些经典数据集的内容、特征,以及加载它们的代码。原创 2024-09-10 22:38:19 · 1972 阅读 · 1 评论 -
【吴恩达机器学习笔记】第1周 - 线性回归与代价/成本函数
机器学习的模式:用训练集的数据,匹配一种算法,生成一个函数(h),这个函数可以输入x,产出y所以机器学习的关键在于:1、选择正确的算法,选择算法之后,函数h的形态就确定了,但是参数未知2、确定函数h的参数值:监督学习:通过训练集的x和y,共同确定参数值无监督学习:通过训练集的x,确定参数值最简单的算法:一元 线性回归(Linear Regression)相同的算法,不同的参数值:成本函数(Cost Function...原创 2021-10-26 00:08:22 · 656 阅读 · 0 评论 -
【吴恩达机器学习笔记】第2周 - python写代价函数/成本函数
吴恩达课程中,代码是用Octave写的,分为两个部分:1、定义代价函数;% 定义代价函数 Jfunction J = costFunctionJ(X, y, theta)m = size(X, 1); % 样本量predictions = X * theta; % 预测值sqrErrors = (predictions - y) .^2; % 预测值与真实值的方差J = 1/(2*m) * sum(sqrErrors); % 代价函数J2、给X,y,theta 赋值并调用函..原创 2020-09-21 17:11:45 · 4038 阅读 · 1 评论
分享