由于担心该工具可能被武器化以进行大规模监视并侵蚀用户的隐私,苹果公司暂时停止了其有争议的计划,即筛选用户设备中是否存在儿童性虐待材料 (CSAM)的暂停按钮。
“根据来自客户,倡导团体,研究人员和其他人的反馈,我们已决定把更多的时间在未来几个月内收集输入和释放这些极为重要的儿童安全特性之前做出改进,” iPhone的制造商说。
然而,该公告并未明确说明它将收集的输入类型、它旨在设计的更改的性质,或者它打算如何以减轻隐私和安全问题的方式实施系统部署后可能会出现。
这些变化原定于今年晚些时候与 iOS 15 和 macOS Monterey 一起上线,从美国开始。
8 月,Apple 详细介绍了几项旨在帮助限制 CSAM 在其平台上传播的新功能,包括扫描用户的 iCloud 照片库中的非法内容,消息应用程序中的通信安全选项,以在接收或发送色情内容时警告儿童及其父母照片,以及当用户尝试搜索 CSAM 相关主题时,Siri 和搜索中的扩展指导。
所谓的 NeuralHash 技术可以通过将用户 iPhone、iPad 和 Mac 上的照片与国家失踪和受虐儿童中心 (NCMEC) 维护的已知儿童性虐待图像数据库进行匹配,然后再将这些照片上传到 iCloud 照片。 ) 而不必拥有图像或收集其内容。超过 30 个匹配哈希的设定阈值的 iCloud 帐户将被手动审查,禁用其个人资料,并向执法部门报告。
这些措施旨在在保护客户隐私和满足政府机构在调查恐怖主义和儿童色情制品方面日益增长的需求之间取得折衷。
然而,这些提议几乎立即遭到了强烈反对,电子前沿基金会 (EFF) 称这家科技巨头试图创建一个设备上的监控系统,并补充说“一个经过彻底记录、经过深思熟虑和狭隘-有范围的后门仍然是后门。”
民主中心与技术(CDT)说:“一旦这项功能内置到 Apple 产品中,该公司及其竞争对手将面临来自世界各国政府的巨大压力——以及潜在的法律要求——不仅要扫描照片以获取 CSAM,还要扫描政府认为令人反感的其他图像。”
“这些图像可能是侵犯人权、政治抗议、被公司标记为‘恐怖分子’或暴力极端主义内容的图像,甚至是那些会向公司施加压力以扫描它们的政客的不讨人喜欢的图像。这种压力可能会扩展到存储在设备上的所有图像,而不仅仅是上传到 iCloud 的图像。因此,Apple 将为全球审查、监视和迫害奠定基础,“信中写道。
此后,苹果公司介入以缓解因意外后果引起的潜在担忧,反对该系统可应专制政府的要求用于检测其他形式照片的可能性。该公司表示:“让我们明确一点,这项技术仅限于检测存储在 iCloud 中的 CSAM,我们不会同意任何政府对其进行扩展的要求。”
尽管如此,它并没有消除人们的担忧,即客户端扫描可能会构成令人不安的侵犯隐私的行为,并且可能会扩大到进一步的滥用,并为破解端到端加密提供了蓝图。
研究人员能够通过对算法进行逆向工程来创建“哈希冲突”(也称为误报)也无济于事,导致两个完全不同的图像生成相同哈希值的场景,从而有效地欺骗系统进行思考当它们不同时,图像是相同的。