
深度学习
AI_KTC
这个作者很懒,什么都没留下…
展开
-
Highly Efficient Natural Image Matting
Highly Efficient Natural Image Matting文章可用(可尝试)创新点使用OCBlock代替传统卷积ENA结构(非局部注意、长短注意操作)提出问题:使用深度学习进行matting存在两个问题:依靠用户提供的trimap。模型尺寸过大。针对上述问题,提出了一个轻量级的trimap-free网络,该网络使用了两阶段的框架:trimap生成阶段:分割网络(SN)被设计来捕获足够的语义,并将像素分为未知区域、前景区域和背景区域;内包含跨层融合模块(CFM),原创 2022-02-21 15:54:42 · 1899 阅读 · 0 评论 -
anaconda安装、pytorch环境安装、pycharm安装
anaconda安装Anaconda下载地址下滑找到此界面,根据实际情况下载安装包:其中有一步要注意将Anaconda加入环境变量。打开.ipynb后缀文件方法一:点击左下角开始,找到Anaconda3,打开jupyter notebook打开之后就可以找到文件打开方法二:打开.ipynb文件所在文件夹,在地址前面加cmd,enter打开cmd界面,输入jupyter notebook 直接进入.ipynb文件所在文件夹,双击即可打开pytorch环境安装打开Anacon原创 2021-08-20 12:10:11 · 551 阅读 · 0 评论 -
Disentangled Image Matting
总结与学习逐层细化的思想。将matting任务细分为两个子网络。创新提出了AdaMatting,一种新的端到端matting框架,将这个问题分解为两个子任务:trimap自适应(一种分类任务)和alpha估计(一种修正任务)。Trimap AdaptationAdaMatting Network框架中包括一个编码器(ResNet- 50)生成共享表示,然后是两个解码器(类似于U-Net结构),目的是学习从共享表示到所需输出的映射,t -解码器和a -解码器分别代表trimap解码器和a原创 2021-07-02 23:30:28 · 238 阅读 · 0 评论 -
深度学习中加载权重文件时,权重参数前面出现module.怎么办
发现问题载入模型时发现模型的参数不匹配:探究问题打印出权重文件里面每一层的参数:checkpoint = torch.load('model_2440_0.0193.pth.tar', map_location = 'cpu')for key in checkpoint: print(key)得到:发现每一个权重文件前面都有module.原因:dist模式训练的模型很可能module解决办法new_state_dict = {}for k,v in checkpoint原创 2021-06-25 10:42:30 · 3518 阅读 · 2 评论 -
U2-NET论文阅读笔记
R2-NET改进网络层面的改进,提出了一个RSU结构,类似于一个小型的unet结构。R2-NET对于分割物体前背景取得了惊人的效果。同样具有较好的实时性,经过测试在P100上前向时间仅为18ms(56fps)。RSU结构(ReSidual U-blocks)RSU结构类似于一个小型的U-Net,将所有的RSU用一种类似U-Net的结构连接在一起。通过这种方式来增加多尺度能力。获得了极为优秀的分割结果。整体网络类似U-Net的网络,将其内部换成了RSU结构,每一层输出一个mask,最后将ma原创 2021-06-23 19:43:34 · 806 阅读 · 0 评论 -
DeepStrip: High Resolution Boundary Refinement论文阅读
目标本文的目标是从给与的低分辨率的mask与高分辨率的图像中细化出高分辨率图像的边界。背景现如今存在的一些边界细化的方法多在低分辨率条件下进行的,由于内存,计算速度,计算资源等限制,并不能在高分辨率图像中进行处理。现如今高分辨率的方法大多数是将低分辨率图像直接上采样达到高分辨率,但是由于未考虑到HR图像中的语义信息,往往结果较差。在此背景下,提出了一中新颖的方法来对HR图像进行边界细化。创新1.带状图像考虑到计算资源问题,不能将整张HR图像直接丢进网络,因此将LR的mask进行上采样,在靠近原创 2021-06-21 22:16:05 · 246 阅读 · 0 评论 -
注意力机制pytorch实现
注意力机制pytorch实现通道注意力机制class ChannelAttention(nn.Module): def __init__(self, in_planes, ratio=16): super(ChannelAttention, self).__init__() self.avg_pool = nn.AdaptiveAvgPool2d(1) self.max_pool = nn.AdaptiveMaxPool2d(1)原创 2021-03-21 21:36:29 · 1805 阅读 · 2 评论