138
近日,国家安全部披露的一起典型案例显示:某单位工作人员违规使用开源AI工具处理内部文件,因电脑系统默认开启公网访问且未设置密码,导致敏感资料被境外IP非法访问、下载。这一案例,直观揭示了此类风险的严重性与危害性。
那么,什么是开源AI工具呢?随着人工智能技术的普及,开源AI工具以免费、高效、功能多样等优势,成为许多单位和个人使用人工智能时的首选。这类工具的核心是开源大模型,即架构、参数及训练数据完全公开,并允许用户免费使用的人工智能模型。
你的数据去哪了?开源AI工具的数据安全隐患,主要源于其工作原理中的数据存储功能。“投喂”给AI的任何文件、图片、文字等数据,都会被模型存储下来,以此为基础完成分析处理。这一特性是AI高效工作的前提,却也在无形中为数据泄露埋下伏笔。
一旦数据被存进模型,就至少面临两种泄密风险:一方面,开源AI工具开发者拥有最高权限,可直接访问和查看所有存储数据,若开发者缺乏保密意识或存在利益驱动,用户上传的敏感信息可能被非法利用或泄露。另一方面,开源属性让黑客有机可乘,他们可以利用此类工具本身的漏洞入侵后台,批量窃取存储数据,无需接触用户终端即可实现远程窃密。
因此,对于机关单位或企业来说,若将工作秘密上传至开源AI工具,无异于将核心信息暴露在透明环境中;对于个人而言,身份证号、手机号、隐私照片等敏感信息的上传,也可能引发电信诈骗、信息倒卖等问题。尤其需要警惕的是,若涉及国家秘密的信息被“投喂”给此类工具,将直接威胁国家安全,造成不可挽回的损失。
(资料来源:“保密观”微信公众号)