- 博客(2)
- 收藏
- 关注
原创 KNN近邻算法及代码实现
1. 计算已知类别的训练集中的点与当前样本集中的数据点之间的距离;2. 将这些点按距离递增次序排列;3. 选出距离短的前K个点;4. 计算前K个点中各个分类出现的频率;5. 将出现频率最高的类别作为样本点的分类。优点简单好用,容易理解,精度高,理论成熟,既可以用来做分类也可以用来做回归;训练时间复杂度为O(n);无数据输入假定;对异常值不敏感缺点计算复杂性高;空间复杂性高;样本不平衡问题(即有些类别的样本数量很多,而其它样本的数量很少);最大的缺点是无法给出数据的内在含义。
2024-07-27 15:01:17
1201
原创 利用梯度下降法求线性回归
随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习入门算法之一——梯度下降法的基础内容。在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。这是百度百科给出的定义。具体可以理解成:给定一个点集,用一条线,来拟合。
2024-07-23 16:09:31
1840
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人