信息隐藏|Multitask Identity-Aware Image Steganography via Minimax Optimization基于极大极小优化的多任务身份感知图像隐写

来源:IEEE Transactions on Image Processing2021

注意,由于个人习惯,下文中所述:秘密图像指secret要嵌入的秘密信息;载体图像指cover,要被嵌入秘密的图像;隐写图像指container融合后含有秘密信息的图像。

提出的问题:大容量图像隐写术是一种保存敏感数据如人脸和指纹的技术,其目的是在载体图像中隐藏秘密图像。以往的方法侧重于传输过程中的安全性,在接收端恢复秘密图像后存在隐私泄露的风险。

解决的方式:提出了一个框架,称为多任务身份感知图像隐写(MIAIS),在不恢复秘密图像的情况下实现对隐写图像的直接识别。直接识别的关键问题是将秘密图像的身份信息保留到隐写图像中,同时使隐写图像看起来与载体图像相似。因此,引入了一个简单的内容丢失来保留身份信息,并设计了一个极大极小优化来处理矛盾。

关键词:隐私保护、极大极小优化、多任务学习

具体内容提出了一个名为“多任务身份感知图像隐写”(Multitask Identity-Aware Image Steganography, MIAIS)的框架,直接对隐写图像执行识别,而无需恢复秘密图像,如图所示。

其实和以往方法的不同就是对于最后隐写图像的处理

上图是以往的方法:从隐写图像中恢复秘密信息进行识别,这会带来隐私泄露的风险。

下图是本文的方法:框架直接对隐写图像执行识别操作。

那么问题1来了:

       要对隐写图像进行直接识别,需要解决两个直观上相互矛盾的问题一方面,隐藏只应该允许载体图像中的小扰动,才能保证隐写图像看起来应该与其载体图像相似。另一方面,直接识别可能需要在载体图像中进行较大的扰动,才能保持秘密图像的区别特征。(既要做到尽量小的扰动使得隐写图像和载体图像不可区分,又要进行较大的扰动来保证秘密特征可以直接识别出来

        对于直接识别这个问题,作者引入了内容损失,在秘密图像与其隐写图像(这里很特别,不是隐写图像和载体图像)之间添加了相似性约束。一般来说,身份信息存在于深度网络的高层特征中。因此,采用分类器的特征提取器部分来实现高级特征的相似性约束。内容丢失保留了秘密图像和隐写图像之间判别性的高级特征一致性。相比之下,先前的隐写方法,如HIiPSSteganoGAN,由于其无差别的特征分布,不适合直接识别,如图2 (a)(b)(c)所示。

那么问题2又来了:对于特征分布很密集的隐写图像,不适合直接识别。

          作者为了解决上述矛盾,设计了一个极大极小优化,包括一个生成隐写图像的生成器,称为steg-generator两个称为steg-classifier隐写图像分类器,如图3所示。steg生成器和steg分类器交替训练以相互竞争。

以上就是文章各模块的提出原因和功能。(我太磨叽。。)

主要贡献总结如下:

提出了一种新的框架来对隐写图像进行直接识别,在简化识别工作流程的同时防止隐私泄露。据本文所知,这是第一个提出并研究隐写图像直接识别任务的工作。

引入了内容丢失保存秘密图像的身份信息

设计了一个极大极小优化处理保留身份信息使隐写图像与相应的载体图像相似之间的直观矛盾。

进行了大量的实验,以证明1)与其他视觉信息隐藏方法相比,框架的有效性;2)不同载体集的识别结果的鲁棒性;3)与最先进的高容量图像隐写方法相比,框架具有更好的性能。

A.多任务身份识别图像隐写术框架描述:

        多任务身份感知图像隐写(Multitask Identity-Aware Image Steganography, MIAIS)识别分支可选恢复分支组成,两者共享一个隐藏部分,如图所示。因此,接收者可以使用steg分类器对容器图像进行直接识别,以保护隐私(单任务场景),也可以选择执行识别和恢复(多任务场景,扣题了),从而在某些情况下灵活地恢复秘密图像。

以下是笔记截图(选看):

B.损失函数(根据任务场景:隐藏、识别、恢复,进行分别说明

1.隐藏:视觉相似性损失、内容损失

2.识别:识别损失=标准交叉熵损失+三元损失项

3.恢复:与视觉相似性损失类似

以下是笔记截图(选看):

C.极大极小优化

1)目标:在单任务场景(识别)中,总体目标是通过最小化视觉相似损失、分类损失和内容损失的总和来优化steg生成器和steg分类器。

多任务场景(联合识别和恢复)中,总体目标是通过最小化视觉相似性损失、分类损失、内容损失和恢复损失的总和来优化steg生成器、steg分类器和steg恢复器。

以下是笔记截图(选看):

2)差异损失:给定任意_{_{_{_{}}}}x^{h}f_{1}x^{h}\theta _{f1})与f_{2}x^{h}\theta _{f2})分别表示两个分类器输出,为度量两个分类器预测结果之间的差异,用绝对值之差来定义差异损失。

下面是文章内提供的极大极小优化的算法:

3)训练:Ldis以两阶段方式训练框架。

       使用T-SNE进一步可视化了极大极小过程中隐写图像特征的中间快照。如图所示,在最大差异之后,差异较大的样本(红色标记)增加,这意味着两个steg分类器的差异增大。在最小差异之后,红色标记减少,说明样本的分类差异明显减小。经过这种极大极小差异处理后,类内距离减小,类间距离增大,使得一些图像具有紧凑、易识别的特征,便于识别。

关于实验设置:

1.数据集:AFD; Tiny-Imagenet; LFWPascal VOC 2012ImageNet

2.评价指标:MSEMS-SSIMPSNRDRAcc

作者提供了文章代码:GitHub - jiabaocui/MIAIS,包含数据集以及预训练的代码。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值