安全研究人员发现,即使数据在互联网上仅短暂暴露,也可能在转为私有后长期残留在Microsoft Copilot等生成式AI聊天机器人中。以色列网络安全公司Lasso最新调查显示,全球多家大型企业的数千个曾公开的GitHub存储库受此影响,其中包括Microsoft自身。

Lasso联合创始人奥菲尔·德罗尔向媒体透露,他们发现自家GitHub存储库的内容出现在Copilot中,原因是其曾被Bing搜索引擎索引并缓存。该存储库因短暂公开失误后已设为私有,在GitHub上访问会显示“页面不存在”。德罗尔表示:“在Copilot上,我们意外发现了自己的私有存储库。如果通过常规网页浏览,这些数据不可见,但任何人只要向Copilot提出恰当问题,就能获取这些信息。”
Lasso进一步分析了2024年内曾公开的存储库清单,筛选出已删除或转为私有的项目。通过Bing的缓存机制,他们确认超过2万个私有GitHub存储库的数据仍可通过Copilot访问,波及逾1.6万家组织。受影响的企业包括谷歌、IBM、PayPal、腾讯及Microsoft等。亚马逊虽被提及,但其后声明未受影响,Lasso则表示已依法律建议移除相关引用并坚持研究结论。
部分企业的情况尤为严重,Copilot可能被诱导返回含有知识产权、敏感数据及访问密钥的机密档案。Lasso曾利用Copilot提取到一个现已删除的存储库内容,该存储库涉及利用Microsoft云AI服务生成不当图像的工具。Lasso已联系严重受影响的企业,建议更换或废止泄露的密钥,但相关公司及Microsoft尚未公开回应。
Lasso于2024年11月向Microsoft报告此问题。Microsoft认为此缓存行为属“可接受”范围并定为“低严重性”。自2024年12月起,Microsoft停止在搜索结果中显示Bing缓存链接。然而,Lasso指出,即便缓存功能关闭,Copilot仍能访问这些数据,显示问题未彻底解决。









