在线荐稿记者博客联系记者
□董景娅
“点进直播间一看,‘迪丽热巴’居然在直播卖货。”日前,有网友点开直播间,发现正在卖货的竟是当红女星。然而再定睛一看,这些带货“明星”很快露出了马脚:身穿中式服装,正在卖力带货的“明星”们,其实只是使用了AI实时换脸技术的普通主播。
5月30日,内蒙古包头警方发布一起利用人工智能(AI)实施电信诈骗的典型案例,某科技公司法人代表郭先生10分钟内被骗430万元。
不得不说,人工智能的发展,是一把双刃剑,在给人们生活带来便利的同时,也开始滋生新的犯罪形式。比如,通过AI技术将“明星脸”作为促销工具使用,并未获得明星本人的许可,涉嫌侵犯肖像权,某种程度上也是对消费者的欺诈;利用AI技术进行电信诈骗,让一般人防不胜防,造成财产损失。
AI换脸,不能“想换就换”。为了规范人工智能发展,去年12月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,对人脸生成、替换、操控等都进行了明确约束。近期,也有短视频平台发布关于人工智能生成内容的平台规范暨行业倡议,明确禁止利用生成式人工智能技术创作、发布侵权内容,同时提出“发布者应对人工智能生成内容进行显著标识,帮助其他用户区分虚拟与现实”等要求。无论是管理规定还是行业倡议,都是在对包括AI换脸在内的技术应用进行规范,具有很强的现实针对性。
我们在引导AI技术合规发展的同时,也要给直播间里的AI换脸、AI诈骗划定法律“红线”,促进反诈手段“更新迭代”。一方面,有关部门和相关平台应积极推动加密防伪技术,在AI换脸领域强制使用“数字水印”,利用技术手段实现可追溯功能,发现违法侵权及时处理。另一方面,应实施更有力的隐私保护措施,防范公民隐私泄露。有关部门单位也要提升技术侦查手段,在AI诈骗出现之时就予以技术拦截,为AI技术戴上“紧箍咒”。