
network
qinglv1
如有问题,请发送给到邮箱:772152438@qq.com
展开
-
resnet18和resnet50的大致区别
二者除了网络深度的不同,还有就是kernel的选择不一样resnet50: 右侧的卷积核的排序是1*1 ,3*3,1*1res18的kernrel 右侧的kernel 1*1,1*1原创 2018-12-28 17:31:36 · 26573 阅读 · 3 评论 -
多分类和多标签分类,softmax和sigmoid的用法
多分类:类别数目大于2个,类别之间是互斥的。比如是猫,就不能是狗、猪多标签:类别之间不是互斥的。它有多个label,比如既有类别,又有位置信息等等以下转载自这篇文章:https://blog.youkuaiyun.com/u011734144/article/details/80915559首先,说下多类分类和多标签分类的区别多标签分类: 一个样本可以属于多个类别(或标签),不同类之间是有关联...原创 2019-01-03 16:04:06 · 3023 阅读 · 0 评论 -
cv领域:检测和分类的区别
图像检测:可以检测出来多个物体或者多个目标物体,可以找出多个bbox图像分类:即使一个图像/bbox里面有多个目标物体,也会只有一个分类结果(可以找一个最大的置信度的)...原创 2019-01-02 18:43:30 · 3045 阅读 · 0 评论 -
mask rcnn需要注意的地方
1.mask rcnn的mask和class是分开来进行的,mask的训练和类别有关系,每一个类别对应一个维度的mask,就是在训练的时候,假如有5个类别,如果输入的是那个类别的就是对应对应的通道的mask(或者叫做对应的维度的特征图),其余的不包含的类别对应的mask,不计算loss,就是按类别学习了一个更具有类别特征的loss。非这个类别的mask的维度置为-1,在计算的时候,ignore:-...原创 2019-01-07 18:49:40 · 418 阅读 · 0 评论 -
机器视觉Attention机制的研究
Attention算法调研(四) —— 视觉应用中的Soft Attention从我的博客文章Attention算法调研(视觉应用概况)开始,我们一起分享一下Attention在机器视觉中的应用情况。在文章Attention算法调研(三)—— 视觉应用中的Hard Attention中,总结了视觉中Hard Attention的应用方法。看过我前几章Attention介绍的博友可以发现...转载 2019-01-21 17:41:59 · 1715 阅读 · 0 评论 -
分类和回归
分类问题,都用 onehot + cross entropytraining 过程中,分类问题用 cross entropy,回归问题用 mean squared error。training 之后,validation / testing 时,使用 classification error,更直观,而且是我们最关注的指标。作者:蒋竺波链接:https://zhuanlan.zhi...转载 2019-01-22 18:08:57 · 252 阅读 · 0 评论 -
caffe中bn层与scale层(还有卷积通道融合的一些解释)
该文章大部分来自转载,里面也有自己的一些总结整理,如有不对,可以联系我,谢谢 卷积层默认是开启卷积层的偏置项的,一般情况下,也都是让他开启着,一般学习得到的也就是权重w和偏置b。在卷积之后得到的数值的来源:wx+b。 而且卷积可以增加通道之间的融合/交流,比如senet就是这样增加通道之间的融合,也就是channel attention,全局平局池化的...原创 2019-01-22 18:17:10 · 2677 阅读 · 0 评论 -
imagenet数据集和coco数据集的一点区别
针对分类和检测任务的一点区别(自己的一点愚见,如有不对请指正)imagenet数据集主要是用来做分类任务,对于某一张图片里面的多个物体,它的发呢类只是归属于某一个物体,只是对于某个物体做的分类。只是对图片里面主要的物体做分类,因为分类不能去做检测,单纯的分类网络只能做单分类。若想多分类,则需要加上检测的网络分支才可以。imagenet里面的用于检测任务的数据集比较小。coco数据集,主要用...原创 2019-01-23 10:19:10 · 6051 阅读 · 0 评论 -
解决过拟合的方法
1.数据增强,正则化,减少模型2.数据增强: 旋转、亮度、crop、镜像原创 2019-03-15 10:55:14 · 227 阅读 · 0 评论