
Brave软件公司加入了让基于云端AI服务更加私密的竞赛中。
这家浏览器制造商已开始为向Brave用户提供的基于云端AI模型提供可信执行环境(TEE)。TEE为主机处理的数据的保密性和完整性提供可验证的保证。
目前,AI TEE仅限于Brave Nightly用户使用,这是该浏览器的测试和开发版本,支持DeepSeek V3.1,这是该公司浏览器内置AI助手Leo可用的几个模型之一。
Brave的高级隐私研究员Ali Shahin Shamsabadi和创始人兼首席执行官Brendan Eich在周四的博客文章中表示:"通过集成可信执行环境,Brave Leo正朝着在AI助手中提供无与伦比的可验证隐私和透明度的方向发展,实际上是从'相信我'的过程转向Brave所追求的隐私设计方法:'信任但验证'。"
Brave的Leo支持本地和基于云端的AI模型。目前最有能力的AI模型在云环境中运行,高性能GPU可以快速运行推理工作负载,并能够快速响应查询以满足不耐烦的用户。
这种安排的问题在于它不是特别私密的。用户请求和相关个人数据在被AI模型处理时必须是未加密的。当这些信息可见时,就会邀请第一方和第三方供应商的滥用,以及任何能够获得系统访问权限的入侵者的滥用。
从Bard(Gemini)和ChatGPT聊天记录的意外公开可以清楚地看出,人们与AI助手之间的对话可能包含敏感信息。企业也有同样的担忧——他们不愿意将数据暴露给运行其AI模型的第三方云服务,并且经常需要遵守要求某些信息保持私密的法规。
科技公司已经开始响应这一需求。苹果去年宣布了其私有云计算服务,承诺提供一种方式来保护用户请求和个人数据,这些数据必须未加密才能被机器学习模型处理。谷歌最近也推出了自己的私有AI计算服务。
在Usenix Security 2025上发言时,科学初创企业孵化器Deep Science Ventures的研究员兼驻场创始人Shannon Egan说:"机密计算被认为是增强整个AI工作负载安全性的最实用和可扩展的途径,这再次主要归功于现有的基于CPU的TEE技术,该技术在商品硬件中广泛可用。另一方面,在将AI加速器纳入信任边界方面仍然存在重要差距,特别是当涉及多个GPU时,而今天几乎总是这种情况。"
英伟达自2023年以来一直在关注这个问题,当时它在Hopper GPU架构中引入了GPU机密计算(GPU-CC)。但正如Egan指出的那样,IBM研究院和俄亥俄州立大学的研究人员在最近的一篇论文中论证,英伟达缺乏关于GPU-CC的文档和透明度,这使得安全专业人员难以评估该技术的保密承诺。
Brave选择使用Near AI提供的TEE,该技术依赖于Intel TDX和英伟达TEE技术。该公司认为,其AI服务的用户需要能够验证公司的私有声明,并确认Leo的响应来自声明的模型。
Shamsamadi和Eich表示:"其他竞争聊天机器人提供商缺乏这些以用户为先的功能,引入了隐私清洗的风险。"他们指出,研究人员支持部署TEE来对抗模型提供商为昂贵模型收费而秘密提供更便宜模型的可能性。
这个勇敢的新世界应该会及时扩展到DeepSeek V3.1之外的其他AI模型。
Q&A
Q1:什么是可信执行环境TEE?它如何保护AI数据?
A:可信执行环境(TEE)为主机处理的数据的保密性和完整性提供可验证的保证。在AI应用中,TEE能够保护用户请求和个人数据在被AI模型处理时的隐私,避免被第一方、第三方供应商或入侵者滥用。
Q2:Brave Leo的TEE功能目前支持哪些模型?
A:目前AI TEE仅限于Brave Nightly用户使用,支持DeepSeek V3.1模型。Brave计划未来将这一功能扩展到Leo可用的其他AI模型。
Q3:为什么云端AI服务需要隐私保护?
A:云端AI模型处理时,用户请求和个人数据必须未加密,这使得敏感信息容易被滥用。从Bard和ChatGPT聊天记录的意外公开可以看出,人们与AI助手的对话可能包含敏感信息,企业也担心数据暴露给第三方云服务。
370

被折叠的 条评论
为什么被折叠?



