
机器学习
文章平均质量分 72
无意识积累中
这个作者很懒,什么都没留下…
展开
-
深度学习——名词总结篇
1.Memory:我的出处:ECN。元学习时提及此方式。 原理:目标域的图片经网络题取出特征向量,存储到memory中;下一次新的即可和上次的做聚类; 公式:(其中是随着epoch不断线性增加的: PS:但为什么新特征的影响会越来越大?) 用处: 1.Domain Adaptation,用新提取出的特征向量和旧的做聚类,可使模型在目标域上的泛化能力增强 ...原创 2019-08-06 19:07:52 · 5544 阅读 · 2 评论 -
机器学习----pointwise,pairwise,listwise
Pointwise:把排序问题当二分类问题 输入样本:三元组(q,c,y) q:查询题目 c:查询结果(候选答案当中的一个) y:判断c是否为q的正确答案(0<y<1) 训练阶段:对于一个q 结果正确:c=1 结果错误:c=0 损失函数:交叉熵 测试阶段: 二分类模型h:预测每一个候选结果 argmax:取得最佳结果 Pairwise:考虑查询结果之间的关系 输入样本:三元组(q,c+,c-) q:查询题目 c+:正确查询结果(候.原创 2020-11-06 14:00:36 · 1457 阅读 · 0 评论 -
机器学习----矩阵分析之奇异之分解(SVD分解)
从应用入手:(一)影像压缩15×25的矩阵,如果直接表示的话,需要15×25个信息。(很多) 但是,实际上它只有三种列。所以,图像的表示其实只用这最关键的三列就可以了。(很少)(二)过滤杂质-----------------------------------------------------------------------------一个矩阵原本:---------------------------------------------------------------.原创 2020-11-03 10:51:57 · 525 阅读 · 0 评论 -
机器学习----谱聚类
整体概述:第一步:降维----特征值 第二步:k-means聚类基于图论的聚类方式:拉普拉斯矩阵的特征向量进行聚类连点成线构成图:图的度矩阵-图的邻接矩阵=拉普拉斯矩阵:归一化拉普拉斯矩阵:生成该拉普拉斯矩阵最小的k个特征值+特征向量:特征向量kmeans聚类:谱聚类的优点与缺点:优点: 稀疏处理: 只要数据之间的相似度矩阵 对于处理稀疏数据的聚类很有效 高维处理: 使用降维...原创 2020-10-29 16:57:54 · 315 阅读 · 0 评论 -
机器学习----流形学习
目的:找到这个从高维到低维的映射作用:流形可以作为一种数据降维的方式。 输出数据更本质的特征,用更少的数据能尽可能多地表示原始数据。通过现实理解:在现实中能够观察到的真实数据,其实是“低维流形映射到高维空间”上的。 换句话说:一些高维中的数据会产生维度上的冗余,实际上只需要比较低的维度就能唯一地表示。举例:例一:用二维空间表示一个圆是冗余的:因为“在极坐标下只需要一个半径”即可表示。例二:用三维空间表示一个求是冗余的:因为只需要“经纬”即可完全表示成功。例...原创 2020-10-14 17:41:29 · 871 阅读 · 0 评论 -
机器学习——交叉熵和softmax
1.交叉熵(1)用处:分类问题的损失函数(2)取值:只可能为非负(3)要理解交叉熵,就要一步步理解:信息量->信息熵->相对熵->交叉熵 信息量 概率的对数的负数 想一想:一个概率越小的时间发生了则信息量越大 信息熵 信息量的均值(用所有概率加起来为1的那一个集) PS:没有加和,单个时的图...原创 2019-07-19 21:31:43 · 310 阅读 · 0 评论 -
机器学习——最小二乘法,闭式解矩阵推导
Step1:最小二乘法的初始形式 Step2:目标——最小化欧几里德空间的2-范数的平方 Step3:将式子用矩阵展开 Step4:矩阵的各种形式求导(下一步使用) 第一种: 第二种: , 如果矩阵是对称的:Step5...原创 2019-11-19 20:53:48 · 3639 阅读 · 0 评论