1. KL loss
其经常要与softmax一起使用,就是为了学习one-hot分布
2. 降维
Pooling层的作用是增加模型的鲁棒性,让模型对输入的少量变化不那么敏感。
如果真想通过降维,减少模型训练参数,那应该用PCA降维方法,
sklearn.decomposition.PCA
3. cosine的相似度是【-1,1】,不是【0,1】
本文介绍了KLloss与softmax的结合用于学习one-hot分布,Pooling层在增强模型鲁棒性方面的角色,以及在减少参数时选择PCA降维的方法。特别提到了sklearn库中的PCA工具。此外,还澄清了cosine相似度的范围并非[0,1],而是[-1,1]。
1. KL loss
其经常要与softmax一起使用,就是为了学习one-hot分布
2. 降维
Pooling层的作用是增加模型的鲁棒性,让模型对输入的少量变化不那么敏感。
如果真想通过降维,减少模型训练参数,那应该用PCA降维方法,
sklearn.decomposition.PCA
3. cosine的相似度是【-1,1】,不是【0,1】
782
739
4062
2313

被折叠的 条评论
为什么被折叠?