
ML——algorithm
文章平均质量分 58
怎么全是重名
开心就好,任何时刻你都有充足的理由保持乐观
不管当下如何,未来一定会有更糟糕的时刻
展开
-
梯度下降算法(Gradient Descent)
梯度下降法的含义是通过当前点的梯度(偏导数)的反方向寻找到新的迭代点,并从当前点移动到新的迭代点继续寻找新的迭代点,直到找到最优解,原创 2023-10-19 20:16:59 · 195 阅读 · 0 评论 -
推荐系统(RS)
根据用户群体对产品偏好的数据,发现用户之间的相似性或者物品之间的相似性,并基于这些相似性为用户作推荐。如下表所示,用户1和用户2都给商品A,B,C打了高分,那么可以将用户1和用户2划分在同一个用户群体,此时若用户2还给商品D打了高分,那么就可以将商品D推荐给用户1。如下表所示,图书A和图书B都被用户1,2,3购买过(1表示购买,0表示未购买),那么可以认为图书A和图书B具有较强的相似度,即可判断喜欢图书A的用户同样也会喜欢图书B。当用户4购买图书B时,根据图书A和图书B的相似性,可将图书A推荐给用户4。原创 2023-10-19 20:01:20 · 699 阅读 · 0 评论 -
SVD、FP-growth(简单了解下定义撤)
FP增长(FP-growth)算法是一种高效发现频繁项集的方法,通过构造一个树结构来压缩数据记录,只需要对数据库进行两次扫描,并且不会产生候选项集,因此它的效率相比于Apriori算法有很大的提高。原创 2023-10-19 19:49:14 · 245 阅读 · 0 评论 -
PCA降维
主成分分析(PCA)是常用的线性数据降维技术,采用一种数学降维的方法,在损失很少信息的前提下,找出几个综合变量作为主成分,来代替原来众多的变量,使这些主成分能够尽可能地代表原始数据的信息,其中每个主成分都是原始变量的线性组合,而且各个主成分之间不相关(即线性无关)原创 2023-10-19 19:35:38 · 157 阅读 · 0 评论 -
Apriori(关联规则挖掘算法)
事务库上表所示的购物篮数据即是一个事务库,该事务库记录的是用户行为的数据。事务上表事务库中的每一条记录被称为一笔事务。在购物篮事务中,每一次购物行为即为一笔事务,例如第一行数据“用户1购买商品A,B,C”即为一条事务。项和项集在购物篮事务中,每样商品代表一个项,项的集合称为项集。每样商品的组合构成项集,例如“A,B”、 “A,C”、 “B,C”、 “A,B,C”都是一个项集,其实也就是不同商品的组合。关联规则关联规则是形如X → Y的表达式,X称为前件,Y称为后件。原创 2023-10-19 18:58:24 · 428 阅读 · 0 评论 -
CART(classification and regression tree)
Gini指数越小表示集合的纯度越高,反之,集合越不纯。原创 2023-10-18 21:34:59 · 189 阅读 · 0 评论 -
集成学习方法(随机森林和AdaBoost)
集成学习很好的避免了单一学习模型带来的过拟合问题。原创 2023-10-18 21:13:31 · 471 阅读 · 0 评论 -
SVM支持向量机
支持向量机(SVM),Supported Vector Machine,基于线性划分,输出一个最优化的分隔超平面,该超平面不但能将两类正确分开,且使分类间隔(margin)最大。原创 2023-10-18 20:45:00 · 147 阅读 · 0 评论 -
Linear、Logistic回归
线性回归的目标是找到最佳拟合线,以使观测数据点与该线的残差(实际值与预测值之间的差异)最小化。线性回归通常用于探索变量之间的趋势、预测未来数值,或者用于发现因果关系。转载 2023-10-18 19:49:38 · 151 阅读 · 0 评论 -
朴素贝叶斯(基于概率论)
贝叶斯定理是“由果溯因”的推断,所以计算的是"后验概率"原创 2023-10-18 19:34:57 · 564 阅读 · 0 评论 -
K-Means算法
1.从样本中随机选取K个点作为簇质心2.每个点都指向离它最近的簇质心3.遍历结束后,重新计算K值,即计算K个簇的平均值作为新的质心重复23直到质心不再发生变化或达到指定迭代次数原创 2023-10-18 18:49:56 · 158 阅读 · 0 评论 -
决策树oo
决策树学习的算法通常是一个递归地选择最优特征(选择方法的不同,对应着不同的算法),并根据该特征对训练数据进行分割,使得各个子数据集有一个最好的分类的过程。这一过程对应着对特征空间的划分,也对应着决策树的构建。原创 2023-10-18 18:31:53 · 910 阅读 · 0 评论 -
KNN算法
近朱者赤近墨者黑原创 2023-10-18 17:55:20 · 208 阅读 · 0 评论