度量学习简介:简单来讲,就是学习如何衡量不同样本之间的相似性。
度量学习举例:对于样本x1,x2.度量学习的目的就是学习D(x1,x2).其中D函数有一下特点:
这里的D函数输出结果可以看作是相似性的倒数,或者干脆叫做差异性。其中L就是我们要学习的参数,目前本人知道的D的模式就有
1.神经网络(训练两个神经网络结构S1,S2;其输入分别是两个样本x1,x2;最终的输出是维度一致的y1,y2;训练的损失就是||y1-y2||,一个欧式距离损失,也就是二次损失),神经网络模式下,又分了两种情况:
1.1.S1和S2一模一样,训练同一组参数,这个叫做孪生网络
1.2.S1和S2不同,这个适用于两个输入领域不同的,构建不同的识别通道。
2.线性变化:也就是同LMNN原理一致的方法,通过分析矩阵变换后的空间的欧氏距离来进行分类。
度量学习作用:相似性越大,说明同属于一类的可能性越高;反之越低,则同属于一类的可能性越低。如果我们学习了如何衡量两个样本之间的相似性,那么我们可以利用这个学习到的函数进行分类:作为KNN的距

度量学习是学习如何衡量样本间的相似性,常用于分类和匹配任务。LMNN(Large Margin Nearest Neighbor)是一种结合KNN与SVM的方法,旨在优化度量矩阵,提高分类性能。它通过学习参数L来调整样本空间,使得同类样本间距离小,异类样本间距离大。LMNN的损失函数考虑了KNN和SVM的特性,并能转化为凸优化问题。度量学习的应用场景包括人脸识别、车辆识别等。
最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



