攻击者正不断挖掘新手段,将恶意项目发布至 Hugging Face 等开源人工智能(AI)模型存储库,还能成功避开平台的安全检查。这一愈发严重的问题警示着,那些开展内部 AI 项目的企业,必须构建强大机制,以检测其供应链中的安全漏洞和恶意代码。
据软件供应链安全公司 ReversingLabs 在 2 月 3 日发布的分析,Hugging Face 的自动检测程序近期就 “翻车” 了,没能识别出存储库中两个 AI 模型里潜藏的恶意代码。攻击者借助一种常用的攻击媒介 — Pickle 格式的数据文件,搭配名为 “NullifAI” 的新技术,成功躲过了检测。
ReversingLabs 的首席软件架构师 Tomislav Pericin 表示,尽管这些攻击很可能只是POC,但它们能以 “安全” 的标签在平台上托管,这足以说明企业不能单纯依赖 Hugging Face 等存储库的安全检查来保障自身安全。他提到:“在这个公共存储库中,任何开发者或机器学习专家都能上传自己的内容,这就给了恶意行为者可乘之机。不同的生态系统,攻击媒介会有些许差异,但本质都是一样的,就是有人会上传恶意版本的内容,等着别人不小心安装。”
当下,企业对 AI 的应用热情高涨,多数企业还会借助 Hugging Face、TensorFlow Hub、PyTorch Hub 等存储库中的开源 AI 模型开展内部项目。Morning Consult 对 2400 名 IT 决策者展开的调查显示,高达 61% 的企业会利用开源生