
cv
文章平均质量分 56
favomj
吃枣药丸
展开
-
Semi-Supervised Semantic Segmentation with Pixel-Level Contrastive Learning from a Class-wise Memory
创意:创建了一个Memory Blank,,特征来自 标记和未标记的数据都被优化为与MemoryBlank的同类样本相似。首先了解一下Mean teacherMean teacher本文采用两个网络进行训练,连个网络模型结构一样,分别命名为teacher,student网络。student网络参数根据损失函数梯度下降法更新得到;teacher网络参数通过student网络的参数迭代得到。训练数据:有标签样本x1,y1,以及无标签样本x2.训练策略:将有标签数据x1,y1输入st.原创 2021-11-12 12:10:11 · 1212 阅读 · 0 评论 -
A Simple Baseline for Semi-supervised Semantic Segmentation with Strong Data Augmentation
作者认为一组简单的设计和训练技术可以显著提高语义分割的性能,以前没人用强增强,因为强增强引起的分布差异会损害BN,作者在AdvProp和Randaugment: Practical automated data augmentation with a reduced search space的想法下在半监督语义分割上进行强增强,利用辅助BN的方法防止特征偏移,另外作者设计一个自校正损失用来抗噪。Method半监督过程:使用标记好的数据和交叉熵训练好教师模型,把未标记好的数据通过教师模型,得到伪标签(原创 2021-11-11 17:24:16 · 1212 阅读 · 0 评论 -
transformer一些资料整理
基础:https://zhuanlan.zhihu.com/p/53010734attention讲解https://zhuanlan.zhihu.com/p/48508221transerformer讲解https://www.jianshu.com/p/e6b5b463cf7bEmbedding细节讲解https://www.jianshu.com/p/81901d3d3f8eEncoder细节讲解https://www.bilibili.com/video/BV1uK411L7nt?转载 2021-02-02 14:09:22 · 424 阅读 · 0 评论 -
kaggle,天池等使用args报错
改为opt = parser.parse_known_args()[0]转载 2020-11-17 17:07:45 · 454 阅读 · 0 评论 -
语义分割自己收集的一些tricks
https://www.bilibili.com/video/BV11E411y7Dr/?spm_id_from=333.788.videocard.12ResNeSt: Split-Attention Networks(ResNet改进版本)(1)大的min batch,使用cosine学习率衰减策略。warm up。BN层参数设置。(2)标签平滑(3)自动增强(4)mixup训练(5)大的切割设置(6)正则化Bisenethttps://github.com/CoinCheu.转载 2020-10-08 11:19:50 · 1245 阅读 · 0 评论 -
cityscapes数据集
一:下载:官方网站:Semantic Understanding of Urban Street Scenes以下下载内容来自(https://zhuanlan.zhihu.com/p/147195575)下载前3个文件即可。其中3文件代表训练使用的原图,1文件代表精细标注label,2文件代表非精细标注label。有的同学要问了,那我下载1、3不就行了吗?我要这2有何用?其实Cityscapes数据集提供了34种分类,但有时我们不需要那么多,比如仅需要19分类(默认的)或任意多个分原创 2020-09-24 12:12:21 · 8035 阅读 · 6 评论 -
进化的unet
首先unet:这里我引用了U-Net++作者的总结在计算机视觉领域,全卷积网络(FCN)是比较有名的图像分割网络,医学图像处理方向,U-Net可以说是一个更加炙手可热的网络,基本上所有的分割问题,我们都会拿U-Net先看一下基本的结果,然后进行“魔改”。 由于UNet也和FCN一样, 是全卷积形式, 没有全连接层(即没有固定图的尺寸),所以容易适应很多输入尺寸大小,但并不是所有的尺寸都可以,需要根据网络结构决定, 在U-Net中, 池化是2x2的且是valid策略,即没有padding,因此要保证输原创 2020-07-21 12:50:19 · 1460 阅读 · 0 评论 -
数据过少及类别不平衡
import torch.nn as nnfrom torch.autograd import Variablefrom PIL import Imageimport osimport numpy as npfrom model.deeplab import Res_Deeplabdef generate_pseudo_label(model, save_path, target_loader): if not os.path.exists(save_path): .转载 2020-05-24 11:01:19 · 498 阅读 · 0 评论 -
ubuntu 16.04 cuda10 cudnn pytorch1.2
安装ubuntu:/ 20G /boot 1G /tmp 10G(第一遍小了出了问题) /swap 10G 剩余的全给了/home显卡驱动安装:https://blog.youkuaiyun.com/DongZhuoHui/article/details/97913269cudnn安装原文链接:https://blog.youkuaiyun.com/qq_40157728/article/details...转载 2020-05-02 16:15:19 · 273 阅读 · 0 评论 -
笔记本深度学习大幅卡顿
今天训练的时候突然速度大幅下降,重启数次+关闭一些服务后无果,思来想去就只有新装的VMVARE可能导致卸载重启后正常原因是什么仍未知。原创 2020-04-12 01:51:49 · 711 阅读 · 0 评论 -
Context Prior for Scene Segmentation arXiv:2004.01547v1
问题:most approaches rarely distinguish different types ofcontextual dependencies, which may pollute the scene un- derstanding.以往的上下文关系没有很好的区分类别,对语义造成了污染解决:创建了Affinity Loss和Context Prior with来区分intr...原创 2020-04-07 10:35:47 · 678 阅读 · 0 评论 -
pytorch 内存超限 CUDA out of memory
报错:RuntimeError: CUDA out of memory. Tried to allocate 512.00 MiB (GPU 0; 8.00 GiB total capacity; 5.86 GiB already allocated; 156.97 MiB free; 3.25 MiB cached)解决方法:只能调调batch_size,改改模型啥的主要想记录...原创 2020-02-25 12:12:39 · 2807 阅读 · 0 评论 -
Gated-SCNN: Gated Shape CNNs for Semantic Segmentation
目录概述:问题:解决方法:细节:Regular Stream:传统的CNN网络,如VGG,ResNetShape Stream:Gated Convolutional Layer:Joint Multi-Task Learning:Dual Task Regularizer:概述:问题:当前的神经网络将颜色,形状,纹理信息都一起处理,而这些信息...原创 2019-11-23 16:55:04 · 1112 阅读 · 0 评论 -
从Cascade R-CNN到Hybrid Task Cascade
原文 |https://arxiv.org/abs/1901.07518Faster R-CNN算法及其实现详解:https://zhuanlan.zhihu.com/p/31426458Mask-RCNN 算法及其实现详解:https://blog.youkuaiyun.com/remanented/article/details/79564045传统的Faster R-CNN结构如下:...原创 2019-11-18 16:44:25 · 717 阅读 · 0 评论 -
keras-Denset
论文翻译:https://blog.youkuaiyun.com/qq_41295976/article/details/88249740总结:https://www.jianshu.com/p/274d050d517e代码来源:https://www.jianshu.com/p/274d050d517efrom keras.layers import *import keras.backen...原创 2019-10-12 09:47:22 · 272 阅读 · 0 评论 -
1*1卷积的作用
1*1卷积的主要作用有以下几点:1、降维( dimension reductionality )。比如,一张500 * 500且厚度depth为100 的图片在20个filter上做1*1的卷积,那么结果的大小为500*500*20。2、加入非线性。卷积层之后经过激励层,1*1的卷积在前一层的学习表示上添加了非线性激励( non-linear activation ),提升网络的表达能力;...转载 2019-10-07 14:56:05 · 8202 阅读 · 2 评论 -
tensorflow-VGG
感悟:机子太差,参数太多内存炸了keras真香参考:https://blog.youkuaiyun.com/weixin_43624538/article/details/84563093https://blog.youkuaiyun.com/shankezh/article/details/87814520https://blog.youkuaiyun.com/m0_37917271/article/det...原创 2019-10-07 17:46:07 · 187 阅读 · 0 评论 -
tensorflow-inceptionv1
中英文对照翻译:https://blog.youkuaiyun.com/c_chuxin/article/details/82856502总结参考:https://blog.youkuaiyun.com/weixin_43624538/article/details/84863685https://blog.youkuaiyun.com/mao_xiao_feng/article/details/53350798代码...原创 2019-10-08 23:35:18 · 559 阅读 · 0 评论 -
tensorflow-Inception3
总结:https://blog.youkuaiyun.com/weixin_43624538/article/details/84963116https://www.cnblogs.com/eniac1946/p/8669937.html代码参考:https://blog.youkuaiyun.com/shankezh/article/details/89088085设计原则2.1避免特征表示瓶颈...原创 2019-10-10 10:48:09 · 176 阅读 · 1 评论 -
keras之-ResNet50
理论参考:https://blog.youkuaiyun.com/weixin_43624538/article/details/85049699代码:https://blog.youkuaiyun.com/u013093426/article/details/81166751整体架构图:其中ID block x3表示该模块是由3个Identity块堆叠构成,该模型各层参数设置如下:Zero-Padd...原创 2019-10-10 22:40:27 · 1175 阅读 · 0 评论 -
keras 乱七八糟
keras保存模型:model.save(mp)图片正则和生成标签def normalized(rgb): #return rgb/255.0 norm=np.zeros((rgb.shape[0], rgb.shape[1], 3),np.float32) b=rgb[:,:,0] g=rgb[:,:,1] r=rgb[:,:,2] ...原创 2019-10-11 17:15:00 · 201 阅读 · 0 评论 -
摘抄
相对于正常数据集,如果Batch_Size过小,训练数据就会非常难收敛,从而导致underfitting。增大Batch_Size,相对处理速度加快。增大Batch_Size,所需内存容量增加(epoch的次数需要增加以达到最好结果)。当epoch增加以后同样也会导致耗时增加从而速度下降。因此我们需要寻找最好的batch_size。Batch_Size增大到一定程度,其确定的下降...原创 2019-10-11 17:55:02 · 463 阅读 · 0 评论 -
tensorflow-AlexNet
总的流程看这两张图就差不多了参考:https://blog.youkuaiyun.com/weixin_43624538/article/details/83988998https://blog.youkuaiyun.com/qq_28123095/article/details/79787782代码如下:import tensorflow as tffrom tensorflow.exa...原创 2019-10-06 22:59:16 · 141 阅读 · 0 评论