
deeplearning
shchojj
这个作者很懒,什么都没留下…
展开
-
py_faster_rcnn配置
1、下载:git clone --recursive https://github.com/rbgirshick/py-faster-rcnn.git2、配置Python的几个安装包 $ pip install cython $ pip install easydict $ sudo apt-get install python-opencv3、Cython模块编译 ...转载 2018-09-30 13:42:21 · 191 阅读 · 0 评论 -
DenseNet(二)
转载 2019-07-23 18:00:20 · 152 阅读 · 0 评论 -
DenseNet(一)
转载 2019-07-23 17:58:57 · 138 阅读 · 0 评论 -
Spatial Transformer
一、相关知识参考https://kevinzakka.github.io/2017/01/10/stn-part1/Spatial Transformer Network是一个可学习的模块,旨在以可计算和可参数化的方式增加卷积神经网络Convolutional Neural Networks的空间不变性spatial invariance。这一章节主要是为了介绍空间变换中的仿射变换af...转载 2019-07-01 09:16:16 · 2541 阅读 · 0 评论 -
spatial transformer network
转载 2019-07-01 08:53:23 · 322 阅读 · 0 评论 -
Spatial Transformer Networks
参考:https://zhuanlan.zhihu.com/p/37110107 https://arxiv.org/abs/1506.02025 https://arleyzhang.github.io/articles/7c7952f0/局部最大池化层的引入使得CNN在特征位置变换上具有一定的空间不变性。但是最大池化层max-poolin...转载 2019-06-24 19:04:27 · 2371 阅读 · 2 评论 -
Max pooling一定程度上,位移、尺度、形变不变性
参考:https://www.cnblogs.com/guoyaohua/p/8674228.html https://www.sohu.com/a/160924449_651893Max pooling的原理:Max pooling在不同的通道深度上分开执行:一)平移不变性二)旋转不变性三)尺度不变性...转载 2019-06-26 11:10:16 · 1961 阅读 · 0 评论 -
VoxelMorph
VoxelMorph摘要 之前的配准方法registration都是最优化一个目标函数optimize an objective function(每一对配准对象之间都是独立的),改论文的配准方法registration是通过定义一个参数化的函数parametric function,并且从给定的数据集中最优化该函数的参数optimize parameters。一对...转载 2019-07-01 14:47:19 · 14048 阅读 · 0 评论 -
显存不够时,如何利用GPU训练数据
参考:https://github.com/openai/gradient-checkpointing https://www.jqr.com/article/000537 https://www.infoq.cn/article/fRN0eVBNedTIrm5_Ps1M使用gradient-checkpointing来节省存储 ...翻译 2019-06-14 11:27:45 · 6486 阅读 · 0 评论 -
CaffeModel转pb文件
参考:一、https://stackoverflow.com/questions/37572948/extracting-weights-from-caffemodel-without-caffe-installed-in-python/37573293#37573293将caffe.proto转成caffe_pb2.py:protoc --python_out=. caffe.pr...原创 2019-10-10 14:08:02 · 802 阅读 · 0 评论