基于caffe的fcn网络的训练

本文介绍了基于Caffe的FCN网络训练过程,详细阐述了从数据准备、模型配置到训练的步骤。FCN利用skip结构融合多层信息,通过上采样实现像素级预测。在解决语义分割任务时,由于每个像素都有对应的标签,因此采用单图像作为batch进行训练。训练中还涉及到了crop层的使用和损失函数的选择。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

论文解读:
global information 可以揭露 what , local information 揭露 where
deep 分类网络当做预训练,微调网络,whole image 当做输入,whole image ground truth 是标签
损失函数是在最后一层的 spatial map上的 pixel 的 loss 和,在每一个 pixel 使用 softmax loss
在全部图像上的基于l的随机梯度下降计算将和基于l’的梯度下降结果一样,将最后一层的所有接收域作为minibatch(分批处理)
当感受野重叠的很大的时候,前向和后向传播计算会很有效率???
使用 skip 结构融合多层输出,底层网络应该可以预测更多的位置信息,因为他的感受野小可以看到小的 pixels,结合 fine layers 和 corase layers 可以使模型 respect global structure 的情况下 make local predictions
上采样 lower-resolution layers 时,如果采样后的图因为 padding 等原因和前面的图大小不同,使用 crop ,当裁剪成大小相同的,spatially aligned ,使用 concat 操作融合两个层
softmax loss 会导致类间竞争,促使做最好的预测,但不知道是否有用,使用 sigmod cross-entropy loss 获得相同的结果

下载伯克利大学的fcn文件,基于论文Fully Convolutional Networks for Semantic Segmentation
尝试运行siftflow-fcn32s模型
首先下载数据集siftflow 将下载的数据放在fcn文件夹下的data目录下,将其重新命名为siftflow并将原data文件夹下的siftflow中的文件拷贝到其中,删除原来的。

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值