分割相关论文回顾

参考文章“http://baijiahao.baidu.com/s?id=1572513028567873&wfr=spider&for=pc”

 

FCN:

FCN可以接受任意尺寸的输入图像,网络输出为原图的1/8,后经过8倍上采样得到与输入相同的size.

UNET:《U-Net: Convolutional Networks for Biomedical Image Segmentation》

1,收缩路径和拓展路径形成U形;

2,随机弹性形变的数据扩充;

3,加权损失的使用,(增加非背景类别的权重)

4,好的权重初始化;(高斯分布with标准差sqrt(2/输入节点个数))

5,overlap-tile 策略

原文输入572*572,输出388*388

 

 

DCAN:Deep Contour-Aware Networks for Accurate Gland Segmentation

,,ci的权重随迭代次数的增加不断减小,直至为0.

 P0和PC分别指实心和轮廓分割。

黄色部分为后处理部分。The score masks of whole testing image are produced with an overlap-tile strategy。

原文输入输出大小一致。

 

Large Kernel Matters —— Improve Semantic Segmentation by Global Convolutional Network

文章地址:https://arxiv.org/pdf/1703.02719.pdf

上图为该文网络设计思想来源。网络结构图如下,B,C是本文所提出的,以预训练的resnet为basenet,依据fcn的总体架构。

关键步骤是要取大的卷积核,用k表示核大小,有对比试验:

经过微调之后,ResNet-GCN实现了更好的效果。该文输入与输出大小一致。

 

Refinenet:

作者认为每一层特征都是有用的,所以经过resnet产生不同尺度的四种特征之后,要经过多个refinenet block,并结合四块特征,最后输出1/2的输入size的图。refinenet block可以是单尺度输入,也可以是多尺度输入,多尺度为主。

待细看。

### 关于语义分割的学术论文 #### 综述类论文 一篇重要的综述文章对利用深度学习技术进行语义分割的技术进行了全面回顾[^1]。这篇综述不仅涵盖了最新的研究成果,还为读者提供了必要的背景知识和技术细节。 #### 方法论创新 在具体的方法论上,《Segmenter: Transformer for semantic segmentation》介绍了一种基于Transformer架构的新方法,在多个公开数据集上取得了优异的表现[^3]。这种方法通过引入自注意力机制来改进特征提取的效果,从而提高了模型的整体性能。 #### 数据集与评估标准 为了支持算法的研发和测试,存在大量专门针对语义分割设计的数据集。上述综述中提到了28个不同的数据集及其特性描述,这有助于研究人员根据自己的需求选择合适的数据源来进行实验验证。 #### 跨领域应用探索 除了传统的图像处理外,“Simultaneous detection and segmentation”项目展示了如何在同一框架下实现目标检测与实例级语义分割的任务联合优化[^2]。这种多任务学习的方式能够有效提升系统的鲁棒性和泛化能力。 ```python import torch from transformers import SegformerForSemanticSegmentation, SegformerFeatureExtractor model_name = "nvidia/mit-b0" feature_extractor = SegformerFeatureExtractor.from_pretrained(model_name) model = SegformerForSemanticSegmentation.from_pretrained(model_name) def predict_segmentation(image_path): image = feature_extractor(images=image_path, return_tensors="pt") with torch.no_grad(): outputs = model(**image) logits = outputs.logits.cpu().numpy() return logits.argmax(axis=1)[0] # Example usage segmentation_map = predict_segmentation("example_image.jpg") print(segmentation_map.shape) ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值