DeepLearning: Inspired by DSS ——Multi-layer merge loss and Relu

本文探讨了Deeply Supervised Salient Object Detection with Short Connections论文中提出的深度监督方法。该方法通过整合多级得分层来计算损失值,加速了网络收敛,并在实验中表现出了更好的效果。文中详细介绍了网络结构,包括从卷积层到得分层再到损失层的流程,以及最终得分层的拼接。对比使用和不使用ReLU的实验结果表明,不使用ReLU的版本收敛更快。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Contact Me:
王雪豪 xuehaowang@buaa.edu.cn

In Paper <Deeply Supervised Salient Object Detectionwith Short Connections>, the author merge multi-level score layers to calculate the Loss value.

It used the structure shown as follow:

conv1 -> score1 -> loss1
conv2 -> score2 -> loss2
conv3 -> score3 -> loss3
conv4 -> score4 -> loss4
conv5 -> score5 -> loss5
conv6 -> score6 -> loss6

concat(score1, score2, score3, score4, score5, score6) -> score -> loss
INSTEAD OF
concat(score1, score2, score3, score4, score5, score6) -> Relu -> score -> loss

Meanwhile, I test the network with Relu and without Relu, it turned out to be better without Relu and converge faster.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值