
深度学习
文章平均质量分 88
走投无路的乐乐
这个作者很懒,什么都没留下…
展开
-
使用caffe训练时Loss变为nan的原因
原文:http://blog.youkuaiyun.com/huangynn/article/details/52947894梯度爆炸原因:梯度变得非常大,使得学习过程难以继续现象:观察log,注意每一轮迭代后的loss。loss随着每轮迭代越来越大,最终超过了浮点型表示的范围,就变成了NaN。措施: 1. 减小solver.prototxt中的base_lr,至少减小一个数量级。如果有多个loss laye...转载 2018-03-12 19:35:50 · 198 阅读 · 0 评论 -
ImageNet下载资源(2017年)
原文链接:https://blog.youkuaiyun.com/achirandliu/article/details/78761761 首先用教育网邮箱(edu.cn 或edu结尾的)注册个帐号,便可下载这些资源 Download links to ILSVRC2017 image data. http://image-net.org/challenges/LSVRC/2017/download-i...转载 2018-07-17 20:38:49 · 2472 阅读 · 0 评论 -
计算机视觉学习资源
https://handong1587.github.io/index.html原创 2018-10-19 21:17:22 · 268 阅读 · 0 评论 -
图片分类比赛总结
0.拿到数据集后别急着建模型,先分析数据可视化数据。 在大多数机器学习任务中,我们首先要做的(也是最重要的任务)就是在使用算法之前分析数据集。这一步骤之所以重要,是因为它能够让我们对数据集的复杂度有深入的了解,这最终将有助于算法的设计。 因此,我决定使用 t 分布随机邻域嵌入(https://lvdmaaten.github.io/tsne/)可视化技术来查看图片的...原创 2018-11-02 09:33:21 · 2185 阅读 · 1 评论 -
HOG做目标检测步骤
This method can be broken into a 6-step process, including: Sampling positive images Sampling negative images Training a Linear SVM Performing hard-negative mining Re-training your Linear SVM usi...原创 2018-11-15 20:19:36 · 437 阅读 · 0 评论 -
Contrastive Loss,Triplet Loss
孪生神经网络(siamese network)中,其采用的损失函数是contrastive loss,这种损失函数可以有效的处理孪生神经网络中的paired data的关系。contrastive loss的表达式如下: 其中d=||an−bn||2,代表两个样本特征的欧氏距离,y为两个样本是否匹配的标签,y=1代表两个样本相似或者匹配,y=0则代表不匹配,margin为设定的阈值。 ...原创 2019-03-11 10:15:59 · 2343 阅读 · 0 评论