深度学习中的安全问题
深度学习在各个领域的广泛应用,使得其安全问题日益受到关注。本文将介绍深度学习中的安全防护措施、可能面临的攻击类型以及相应的攻击手段。
深度学习隐私数据框架的深入解读
为了保障深度学习中的数据安全,有多种有效的隐私保护结构可供使用。这些结构主要安装在对抗模型中,遵循协议的利益相关者需遵守协议指令,该协议能阻止攻击并防止团体偏离标准程序,从而增强安全性。
- Shokri和Shmatikov方法 :该方法主要基于差分隐私(DP)高级学习,在不同组织共享数据时使用。每个组织使用自己的神经网络模型,并选择性地与其他组件共享一些参数。不同机器应用相应规则后,将结果组合得到最终结果。共享参数而非原始值时,会应用替代隐私规则来保护用户隐私。
- SecureML :旨在开发在训练神经网络时保护隐私的解决方案。系统中常用HE、GC和SS协议。数据所有者与非合规服务秘密交换数据真实性,并训练专门的神经网络。它使用高效的定制方法通过安全账户协议训练神经网络,训练结束后,管理版本在服务器之间私密共享,且除了训练还包含隐私政策。
- Google方法 :保护系列协议提供给高端用户并由顶级客户维护。可用于集成训练,客户保留自己的记录和表格。智能版本由主服务器批准,安全集成用户阅读评论。操作系统仅依赖私有代码交换,防止客户随时放弃协议。
- CryptoNets :用于医疗、教育、金融等领域的机器学习。由于使用LHE可能导致非线性激活,建议激活电位接近使用多阶多项式。
超级会员免费看
订阅专栏 解锁全文
2万+

被折叠的 条评论
为什么被折叠?



