论文阅读:Lightweight Pyramid Networks for Image Deraining

本文介绍LPNet,一种用于雨滴去除的轻量级网络,通过结合高斯-拉普拉斯金字塔技术,采用递归和残差结构,实现了参数精简,深度和结构简化。网络利用多尺度技术和去除BN层,提升灵活性并减少计算资源。

稍微整理一下这两篇轻量级的网络。内容比较少,也不写多

2019 T-NNLS:LPNet

这篇文章也是傅雪阳的一篇文章,主要提出了一种轻量级的金字塔网络。
工程:LPNet

在这里插入图片描述

简而言之,文章简化了网络结构,在神经网络中引入了高斯拉普拉斯金字塔分解技术,采用了递归和残差网络结构构建网络,大大减少了网络参数。

主要创新之处

1、CNN结合经典的高斯-拉普拉斯金字塔技术,提出了一个参数较少、深度较浅、结构简单的网络。
2、网络结合了多尺度技术、递归和残差学习,同时去除了BN。

网络结构

整体网络结构:
在这里插入图片描述
子网络:
在这里插入图片描述
递归模块:
在这里插入图片描述

首先将一个rainy图像分解成

在图像去模糊和去雨任务中,轻量级融合蒸馏网络(Lightweight Fusion Distillation Network)是一种结合知识蒸馏与多任务学习的方法,旨在提升模型的推理效率和恢复质量。这类方法通常通过教师-学生框架设计,其中教师模型负责提供高精度特征表示,而学生模型则通过轻量化结构实现高效推理,同时借助蒸馏机制从教师模型中学习知识[^1]。 ### 网络架构设计 该类网络通常包括两个分支:教师模型和学生模型。教师模型通常是性能强大但计算复杂的深度神经网络,如ResNet或Transformer,用于提取高质量的特征表示;学生模型则是轻量化的网络结构,例如MobileNetV3或ShuffleNet,用于保证实时性和低功耗运行。两者之间通过中间层特征进行知识蒸馏,使学生模型能够模仿教师模型的特征分布。 ### 融合策略 为了有效整合来自不同任务(去模糊和去雨)的信息,该网络采用多任务学习框架。具体来说,输入图像会分别送入去模糊和去雨子任务的共享骨干网络,然后通过任务特定的解码器生成对应的输出。此外,在训练过程中,引入了注意力机制来动态调整不同任务之间的权重分配,以增强模型对关键特征的关注能力[^2]。 ### 知识蒸馏机制 知识蒸馏的核心思想是让学生模型模仿教师模型的输出分布或中间特征。在本研究中,通常采用基于特征图的蒸馏损失,即对学生模型和教师模型的中间层特征进行L2损失或余弦相似度优化。此外,部分研究还引入通道注意力模块(Channel Attention Module, CAM)来进一步提升特征对齐效果。 蒸馏损失函数可表示为: ```python def distill_loss(student_features, teacher_features): loss = torch.mean((student_features - teacher_features.detach()) ** 2) return loss ``` ### 损失函数设计 整体损失函数通常由三部分组成: 1. **重建损失**:使用L1或SSIM损失衡量图像恢复质量。 2. **感知损失**:利用预训练的VGG网络提取高层特征,提升视觉一致性。 3. **蒸馏损失**:指导学生模型学习教师模型的特征表示。 总损失函数可以表示为: ```python total_loss = λ1 * L_recon + λ2 * L_perceptual + λ3 * L_distill ``` ### 实验与评估指标 在实验阶段,通常采用合成数据集进行训练,如GoPro(用于去模糊)、Rain100H(用于去雨)。评估指标包括PSNR、SSIM、LPIPS等。实验结果表明,轻量级融合蒸馏网络在保持较低计算成本的同时,能够在多个基准数据集上取得与复杂模型相当甚至更优的性能表现[^3]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值