
机器学习
文章平均质量分 78
aaHua_
ACM小弱鸡,在读研究生,主要研究推荐系统方向。已毕业,江湖再见!!!
展开
-
论文阅读:On the User Behavior Leakage from Recommender System Exposure
On the User Behavior Leakage from Recommender System Exposure原创 2022-11-23 19:15:21 · 557 阅读 · 0 评论 -
论文阅读:How to Put Users in Control of their Data in Federated TopN Recommendation with Learning toRank
FPL原创 2022-10-11 22:39:42 · 258 阅读 · 1 评论 -
hmmlearn实现HMM模型三个问题
hmmlearn实现了三种HMM模型类,按照观测状态是连续状态还是离散状态,可以分为两类。GaussianHMM和GMMHMM是连续观测状态的HMM模型,而MultinomialHMM是离散观测状态的模型,也是我们在HMM原理系列篇里面使用的模型。 对于MultinomialHMM的模型,使用比较简单,"startprob_"参数对应我们的隐藏状态初始分布, "transmat_"对应我们的状态转移矩阵, "emissionprob_"对应我们的观测状态概率矩阵。 对于连续观测状态的HMM模型,Gaussi转载 2021-10-15 12:42:30 · 1315 阅读 · 0 评论 -
机器学习——树回归
CART算法 什么是CART? CART是英文Classification And Regression Tree的简写,又称为分类回归树。从它的名字我们就可 以看出,它是一个很强大的算法,既可以用于分类还可以用于回归,所以非常值得我们来学习。 CART算法使用的就是二元切分法,这种方法可以通过调整树的构建过程,使其能够处理连续型变量。 具体的处理方法是:如果特征值大于给定值就走左子树,否则就走右子树。 CART算法有两步: 决策树生成:递归地构建二叉决策树的过程,基于训练数据集生成决策树,生成的决策树要原创 2021-10-03 22:56:08 · 480 阅读 · 0 评论 -
机器学习——决策树函数(ID3)
决策树 一种简单但广泛使用的分类器,它通过训练数据构建决策树,对未知的数据进行分类。决策树的每个内部节点表示在一个属性上的测试,每个分枝代表该测试的一个输出,而每个树叶结点存放着一个类标号。 ID3算法: 该模型数据为整条数据,目标值在特征值后一列。 信息熵: def calEnt(dataSet): n = dataSet.shape[0] iset = dataSet.iloc[:,-1].value_counts() p = iset / n ent = (-p *原创 2021-10-02 10:03:03 · 1844 阅读 · 1 评论 -
机器学习自用函数整理
整条的数据集划分 import random def randSplit(dataSet,rate): l = list(dataSet.index) random.shuffle(l) dataSet.index = l n = dataSet.shape[0] m = int(n*rate) train = dataSet.loc[range(m),:] test = dataSet.loc[range(m,n),:] dataSet.in原创 2021-10-02 09:22:31 · 447 阅读 · 0 评论