AI 平台 Replicate 曝“跨租户攻击”安全隔离漏洞,用户自训练人工智能模型可被黑客入侵
IT之家 5 月 28 日消息,安全公司 Wiz 近日发布报告,宣称开源 AI 模型共享平台 Replicate 存在重大漏洞,黑客可通过恶意模型进行“跨租户攻击”(IT之家注:即利用存在于多租户环境中的安全漏洞访问 / 干扰其他租户的数据资源),从而导致平台用户训练的 AI 模型内部机密数据泄露。
安全公司声称,Replicate 平台出现“跨租户攻击”漏洞的主要原因是该平台为提升 AI 模型推论(inference)效率推出的模型容器化格式 Cog,虽然相关格式能够显著改善模型与效率,不过 Replicate 平台忽略了 Cog 格式中的安全隔离机制。
IT之家获悉,黑客可以将经过训练后的恶意模型打包成 Cog 容器,并通过 Replicate 的用户操作界面与容器互动,最终成功进行了一系列远程执行代码(RCE)攻击测试,获得了容器的 root 权限。
此后,研究人员还对 Replicate 平台的基础设施进一步调查,利用当前容器的 TCP 连接成功访问到另一台容器,并通过名为 rshijack 的工具将特定数据成功注入至 TCP 连接中,从而绕过了平台的身份验证步骤,成功访问到其他用户的 AI 模型。
研究人员指出,黑客可以利用相关漏洞轻松获取其他用户自用的 AI 模型,能够自由从相关模型问答记录中提取用户隐私数据,还能够自由下载 / 修改用户模型内容,对平台存在严重危害。
IT之家注意到,Replicate 平台在接到 Wiz 通报后已迅速修复相关漏洞,并表示目前没有检测到有用户 AI 模型外流的迹象。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。