用 pretraining (预训练) + Fine Tuning解决小样本学习。虽然这类方法很简单,但是准确率与最好的方法相当。
在大规模数据上预训练模型,在小规模数据Support Set上做Fine Tuning。
Cosine Similarity
计算两个向量的相似度
1.x和w向量长度相等都为1,cosθ等于x和w的内积,Cosine Similarity=cosθ=x与w的内积,表示x投影到w上的截距,范围是-1到1。

2.如果x和w的向量长度不为1,则需要归一化把长度变成1,计算Cosine Similarity的公式如下如下:

我们把query和Support Set中的图片都映射成特征向量,就可以比较二者在特征空间的相似度,计算两两的cosine similarity,选择相似度最高的类别作为分类结果。
Softmax Function
是一个激活函数,把一个向量映射成一个概率分布
输入k维向量Φ,将Φ中每一个元素做指数变换得到k个大于0的数,然后对结果做归一化使k个数相加等于1,把得到的k个数记为向量p,即为函数的输出

本文介绍了如何利用预训练模型结合Fine-Tuning在小规模数据支持集中实现高精度分类。通过CosineSimilarity计算特征向量相似度,结合Softmax分类器进行预测,并详细阐述了Fine-Tuning过程中的参数更新和正则化策略。最后,重点展示了CNN预训练在Few-shot学习中的应用和效果提升。
最低0.47元/天 解锁文章
1689

被折叠的 条评论
为什么被折叠?



