A Framework : Invertible Optimization for Neural Network Training

博客围绕Meta学习展开,提及拆分前传/反传路径、算子网络等,提出关键点在redu过程,利用t - 1梯度信息正则当前梯度,还对优化进行改进,将参数与参数梯度绑定优化,且训练过程可逆,同时介绍了现工作及改动情况。

拆分前传/反传路径&算子网络&参数/参数梯度
提出关键点在redu过程上,利用t-1的梯度信息来正则当前梯度

改进优化,将参数与参数梯度进行绑定优化
训练过程可逆

meta learning workflow

在这里插入图片描述

现工作(无修改的)

在这里插入图片描述

改动

在这里插入图片描述
在这里插入图片描述

### HiNet:基于可逆网络的深度图像隐藏研究与实现 #### 背景介绍 HiNet 是一种用于图像隐藏的新方法,旨在解决传统图像隐写术中的容量有限、安全性不足以及可见度高的问题。该模型利用了可逆网络的独特性质来构建一个高效的图像隐藏框架[^1]。 #### 技术原理 在 HiNet 中,图像隐藏被设计成一个双向的过程——即前向传播负责将秘密消息嵌入到载体图片中形成含密图;而反向传播则用来从含密图里提取原始的秘密信息并重建载体图片。由于这两个操作共用了同一套权重参数,在完成一次完整的训练之后便能够同时得到两个功能完备的部分[^2]。 为了增强系统的鲁棒性和隐蔽效果,研究人员引入了一个特别定制的小波变换域上的损失函数—低频小波损失算法。这一创新使得即使面对各种攻击手段(如裁剪、压缩),所携带的信息依然可以保持较高的准确性[^3]。 #### 实验验证 实验结果显示,相比于其他同类方案,采用 HiNet 进行数据传输不仅拥有更大的有效载荷能力而且还能更好地保护隐私不被轻易察觉。此外,开源项目提供了详细的代码示例供开发者学习参考[^4]。 ```python import torch.nn as nn class HiNet(nn.Module): def __init__(self, num_channels=3): super(HiNet, self).__init__() # 定义编码器部分 self.encoder = Encoder(num_channels=num_channels) # 定义解码器部分 self.decoder = Decoder(num_channels=num_channels) def forward(self, cover_image, secret_message=None): if self.training: stego_image = self.encoder(cover_image, secret_message) recovered_secret = self.decoder(stego_image) return stego_image, recovered_secret else: recovered_secret = self.decoder(cover_image) return recovered_secret ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值