- 博客(10)
- 收藏
- 关注
原创 mask rcnn理解记录
在 Mask RCNN 中,预设 anchor 数量从 Faster RCNN 的 9 个, 提升到了 15 个。这里ratio=[0.5,1,2],而scale在每一层 feature map 上(stride=4,8,16,32,64)的尺度都是 8,映射到原图尺度上就是scale=[32,64,128,256,512]假设图像尺寸为(H, W), 特征图的stride=S1,S2,S3,S...
2020-11-07 11:57:40
114
原创 试验记录
2019年10月30日20:07:25 mask_rcnn_r50_fpn_1x,anchor_scales=[2],dict(type=‘RandomFlip’, flip_ratio=0),optimizer = dict(type=‘SGD’, lr=0.001, momentum=0.9, weight_decay=0.0001)step=[20, 26])CUDA_VISIBL...
2020-11-07 11:57:01
154
原创 Ubuntu安装 驱动安装 cuda和cudnn安装
Ubuntu安装还未尝试过,流程如下:打开refus-3.9.exe,点击选择,选择iso镜像文件,配置文件见下图:
2020-11-07 11:56:25
227
原创 HRNet理解记录
传统的U型网络,先降分辨率再升分辨率,空间信息损失很多分为低中高三个分辨率,并联不同分辨率的信息,down-sample用步长为2的3*3卷积效果比较好串联变成并联W48是第一个conv的宽度...
2019-11-27 23:56:28
401
原创 神经网络填坑记录
resnet 第一个7 * 7的conv后带一个relu卷积和池化的公式为originalSizeh+padding∗2−kernelSizehstride+1\frac{originalSize_h+padding*2-kernelSize_h}{stride} + 1strideoriginalSizeh+padding∗2−kernelSizeh+1前半部分向下取整...
2019-11-15 20:18:23
124
原创 pytorch填坑记录
每个iteration做optimizer.zero_grad() # 梯度清零loss.backward() # 做梯度反传opt.step() # apply 梯度每一个epoch做scheduler.step() # 更新 lr原来是:optimizer.zero_grad() # 梯度清零loss.backward() # 做梯度反传opt.step() # apply ...
2019-11-15 20:17:52
754
原创 python填坑记录
对于一个可迭代的(iterable)/可遍历的对象(如列表、字符串),enumerate将其组成一个索引序列,利用它可以同时获得索引和值list1 = [“这”, “是”, “一个”, “测试”]for index, item in enumerate(list1):print index, item0 这1 是2 一个3 测试...
2019-11-07 09:08:06
295
原创 解决ModuleNotFoundError: No module named 'torch'
https://github.com/open-mmlab/mmdetection/issues/897Solved. The root cause was that $PYTHON variable was pointing to python, not python3. On miniconda python has version 2.7export PYTHON=/home/xrdp/...
2019-11-05 23:05:14
5447
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人