Semi-supervised Deep Learning for Fully Convolutional Networks文章解读

       目前对FCN分割还没有半监督的方法,本文提出auxiliary manifold embedding的概念在随机特征内嵌的辅助下用于FCN的半监督学习,并且用已提出的方法对现有的MS lesion分割任务进行实验验证。

1 引言

       在本文中,我们提出了auxiliary manifold embedding的概念到FCN中,这种新颖的策略叫做"随机特征嵌入"。随后,我们成功执行我们提出的针对域适应的FCN的半监督微调嵌入技术对MS病变分割的挑战性任务。

2 方法论

 

 这里首先对符号进行了定义和说明;

2.1 Auxiliary Manifold Embedding

   本文定义了两个损失项,Lp为有标签数据的损失(Dice-loss),而LE为无标签数据的损失(auxiliary manifold embedding loss);其中LE定义在有标签数据和无标签数据的潜在特征表示h(.),这个损失最小化了在潜在特征空间相似输入的差异。

         总的代价函数可用公式1来表示,1式代价函数的旨在最小化

       LE的定义可用公式2来表达;矩阵A为训练batch内嵌样本nE间的邻接矩阵,d(.,.)是两个latent 特征表示间的任意距离度量,本文的距离度量方式采用angular cosine distan(ACD)的距离度量方式;

       文中说A的定义是留给用户可以是任意的,本文对于A的定义可采用下面英文描述的那样:

 2.2 随机特征嵌入

由于采样和比较大图像中所有像素点的h(.)是计算和比较量较大,因此实际实现上是不可行的,因此在本文提出了以下随机采样策略来只对一部分像素进行比较 

随机特征嵌入(RFE):我们根据一些在下一节讨论的抽样策略随机抽取有限数量的nE的像素从当前批次的特征图中,以限制比较的数量。该损失保持有效,因为我们仅传播所选像素的梯度。

采样策略:理想情况下,随机采样嵌入的分布应该模仿如图2所示的所有嵌入之一,同时关注的类间分布,以便不会将不想要的偏重引入模型。因此本文开发了一种采样策略。

以下就是本文开发的随机采样策略方案:

 3 实验和结果

### 关于《Semi-Supervised Classification with Graph Convolutional Networks》的中文翻译 以下是《Semi-Supervised Classification with Graph Convolutional Networks文章的核心内容及其翻译: #### 图卷积网络简介 该研究提出了一种基于图结构数据的半监督分类方法,利用图卷积神经网络(Graph Convolutional Network, GCN)来处理带有图结构的数据集。这种方法通过谱图理论中的局部一阶近似技术,能够有效地对图中的节点特征以及其邻域关系进行编码[^1]。 #### 半监督学习背景 在许多实际场景中,获取标签的成本较高,因此仅有一部分数据被标注,而大部分数据未被标记。这种情况下,半监督学习成为一种重要的解决方案。本文提出的模型能够在少量标注样本的基础上,充分利用大量无标签数据的信息来进行预测和分类任务[^2]。 #### 方法核心 作者引入了一个简单的两层图卷积网络架构,其中每一层都由一个线性变换矩阵乘法操作组成,并结合激活函数以增加非线性特性。具体来说,输入为节点特征向量 X 和描述节点间连接关系的邻接矩阵 A,在经过多轮传播更新之后得到最终表示 H^(L),再通过 softmax 函数转化为概率分布形式完成分类工作[^3]。 #### 实验验证 为了证明所提方案的有效性和优越性能,实验选取了多个标准基准测试集合进行了对比分析。结果显示相比于其他传统算法或者复杂深度学习框架而言,本方法不仅计算效率更高而且取得了更好的效果表现。 --- ```python import numpy as np from tensorflow.keras.layers import Dense from tensorflow.keras.models import Model def gcn_layer(A_hat, input_dim, output_dim): """ 定义单层GCN 参数: A_hat (numpy.ndarray): 预处理后的邻接矩阵 input_dim (int): 输入维度大小 output_dim (int): 输出维度大小 返回: function: GCN 层定义 """ W = np.random.randn(input_dim, output_dim) * 0.01 # 初始化权重参数 b = np.zeros((output_dim,)) def layer(X): return np.dot(np.dot(A_hat, X), W) + b return layer # 构建简单模型实例化过程省略... ``` 上述代码片段展示了如何构建基本版本的一层GCN实现方式之一。 --- #### 总结 通过对图结构特性的深入挖掘,《Semi-Supervised Classification with Graph Convolutional Networks》成功设计出了适用于大规模稀疏图上的高效半监督分类器——即著名的GCNs家族成员之一。它凭借简洁优雅的设计思路赢得了广泛认可并推动了后续一系列改进型变体的发展方向。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值