
深度学习探索
牛蛙爹爹
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
tensorflow tf.name_scope tf.variable_scope 配合get_collection使用时的区别
name_scope和variable_scope 在定义tensor的时候都会在name前面加上前缀,但是在使用tf.get_collection(tf.GraphKeys.TRAINABLE_VARIABLES, scope=scope)的使用之后配合variable_scope才能获得对应的tensor list。例如with tf.variable_scope(scop...原创 2019-12-19 18:50:20 · 526 阅读 · 0 评论 -
faster-rcnn、yolov3和ssd loss总结
faster-rcnnfaster-rcnn loss主要分为两个部分RPN的loss和fast-rcnn部分的loss:1.rpn loss分为两个部分,其中cls就是BCE loss,而reg用的是smooth L1 loss为什么使用这种loss,文章中的说法是对异常点更加鲁棒,x大于1之后,梯度都是常量了。这边要注意的就是,他并不是对(x,y,w,h)原值进行回归,...原创 2019-05-28 16:53:59 · 4102 阅读 · 0 评论 -
YOLOv1中的grid与b-box
YOLOv1在最后生成一个7*7的feature map,channel数为30((4+1)*2+20)。即一共49个grid,每个grid对应20个类别和2个b-box(4个坐标和1个置信度);这也就意味着,这两个b-box都只能是同一个类别。然后我就有一个疑问,那ground truth怎么对应到这两个不同的b-box predictor上,loss到底怎么训练?仔细看了论文也没有找到答案...原创 2019-05-27 15:04:33 · 1226 阅读 · 0 评论 -
RCNN SPPNET FastRCNN FasterRCNN 总结
RCNN流程1. select search 生成region proposals,并且warp到同一尺度227*227。2.用CNN对所有region proposals 提取特征。3.用SVM对特征进行分类,然后按类别进行NMS4.用SVM对所有通过NMS的proposals的位置进行微调。SPP-NETRCNN中用会对图像做多次卷积,非常费时,SPP主要改进就是只...原创 2019-05-21 16:20:12 · 469 阅读 · 0 评论 -
热门CNN模型整理
pytorch实现的CNN模型https://github.com/BIGBALLON/CIFAR-ZOO1.LENEThttps://my.oschina.net/u/876354/blog/1632862个人总结:都是经典的操作,卷积,池化,卷积,池化,卷积,全连接,全连接。特别的就是C3的卷积不是连接所有channel,这边的池化也是带两个参数w,b的。2.ALE...原创 2019-05-19 22:22:54 · 3124 阅读 · 0 评论 -
使用RFBNet训练kaggle RSNA数据检测胸片的肺炎
one stage 的RFBNet在保证速度的前提下,也有着不错的精度,所以拿来训练kaggle上的RSNA。这边主要介绍下对RFBnet源码修改支持RSNA的训练,如果想看关于RSNA数据分析的,可以去看kaggle上的kernels。数据集介绍RSNA跟常见的检测数据集(COCO,VOC,BDD100K,CITYSCAPE等)不一样的一个地方就是,图片中可能不存在标注,也就是说不存在f...原创 2019-03-22 18:43:15 · 1899 阅读 · 1 评论 -
调用Kears中kears.model.load_model方法遇到的问题和解决方法
之前一直使用tf和pytorch,就算是tf也是tf.estimator用得比较多,很少使用keras,最近尝试使用kears快速训练和部署一些分类任务,在使用load_model的时候遇到一些问题问题1:SystemError: unknown opcode原因是因为模型定义用到了lambdagap = Lambda(lambda x: x[0]/x[1], name = 'R...原创 2019-03-22 17:29:17 · 34772 阅读 · 4 评论 -
Keras加载和保存模型
1.模型权重和图保存#保存模型权重model.save_weights("model_weights.h5")#保存图with open('graph.json', 'w') as f: f.write(model.to_json())加载from keras.models import model_from_json# 加载图with open('ph....原创 2019-03-22 17:10:14 · 623 阅读 · 1 评论 -
pytorch dataloader num_workers参数设置导致训练阻塞
问题描述:最近在用RFBnet (源码是pytorch的)训练RSNA的比赛数据,除了要修改一点代码支持RSNA的数据集外(打算后续再写个博客),发现在使用dataloader读取数据时,如果设置num_workers为0,也就是用主进程读取数据,模型训练程序运行正常。如果设置num_workers为其他任何一个大于0的整数,也就是使用子进程读取数据时,训练程序会卡住,卡在训练之前,GPU使用...原创 2019-03-15 18:02:07 · 24161 阅读 · 12 评论 -
keras evalue_generator is not an element of this graph
问题描述:解决方案:分析:待续原创 2019-03-05 12:04:22 · 267 阅读 · 0 评论 -
Dlib was compiled to use AVX instructions, but these aren't available on your machine.
问题叙述:字面意思就是dlib在编译的时候支持使用AVX指令集,但是运行机器上并不支持AVX指令集。我出现这个问题是,我本地构建docker的机器是指AVX指令集的(使用 pip3 install dlib),线上部署的机器不支持AVX指令集。在线上的log里就一直出现Dlib was compiled to use AVX instructions, but these aren't a...原创 2019-02-25 18:01:06 · 1424 阅读 · 0 评论 -
tensorflow pb to tflite 精度下降
之前希望在手机端使用深度模型做OCR,于是尝试在手机端部署tensorflow模型,用于图像分类。思路主要是想使用tflite部署到安卓端,但是在使用tflite的时候发现模型的精度大幅度下降,已经不能支持业务需求了,最后就把OCR模型调用写在服务端了,但是精度下降的原因目前也没有找到,现在这里记录一下。工作思路:1.训练图像分类模型;2.模型固化成pb;3.由pb转成tflite文件;...原创 2018-11-28 18:56:28 · 3466 阅读 · 18 评论 -
构建使用GPU的docker容器
1.使用nvidia-docker1)nvidia-docker1, 使用nvidia-docker 指令替代docker指令2)nvidia-docker2, 还是使用docker指令,但是要加--runtime=nvidia 的标志。关于配置,宿主机一定要有nvidia的驱动,nvidia-docker会把宿主机的nvidia驱动和显卡设备信息带至容器内部。容器内部,需要安装与...原创 2018-11-27 16:40:57 · 2618 阅读 · 0 评论 -
pytorch high memory usage but low volatile gpu-util
问题:pytorch程序GPU的使用率很低。 如图,我使用5、6号显卡执行pytorch的程序,GPU使用率很低;而其他显卡跑的tensorflow网络,GPU使用率都正常。一般情况下,深度学习遇到这种问题,上来都会认为是dataloader读数据的效率问题:由于读取数据耗时教久,往往程序不能执行GPU上深度网络的计算代码。探索:使用7号显卡debug该pytorch程序,输出...原创 2018-10-05 19:59:07 · 3878 阅读 · 1 评论