眼见未必为“实”,警惕“AI换脸换声”诈骗
日期:05-19
新兴的人工智能(AI)技术,为大众带来便利的同时,也给不法分子提供了可乘之机。近年来,利用AI技术进行图像、视频、音频的深度合成、深度伪造现象凸显,已然成为了一种新型的违法犯罪手段,让不少人蒙受钱财、名誉损失。在5月15日“全国投资者保护宣传日”到来之际,民生银行“金融课堂”提醒,眼见未必为“实”、耳听可能非“真”,转账汇款要谨慎。
据介绍,现在的AI技术只需要几秒钟的对话,就能准确模仿声音,且相似度极高。不法分子通过拨打骚扰电话等方式,录音提取诈骗对象及其重要关系人的声音特征,利用AI技术进行语音合成,用伪造的声音使诈骗对象放松警惕,进而实施诈骗。
一开始,AI换脸技术的出现多为娱乐恶搞,最常被换脸的都是明星艺人。随着技术的发展和普及,一些“换脸”App、小程序、网页逐渐走红。不少市民也觉得新鲜有趣,主动体验,只要动动手指,就能轻松“换脸”。AI换脸不仅可以替换现成的图片、视频,有的软件还可以实时捕捉替换人脸用于视频聊天。
殊不知,这种小程序是存在风险的,一些不法分子会专门将各种分散的图片、视频等信息收购出售。一旦不法分子利用AI技术将照片进行“活化”,就可以做出模拟真人的点头、摇头、眨眼、说话等行为,极易被用作办理网贷或实施精准诈骗。
“利用AI技术实施的诈骗往往都是精准诈骗,不法分子会分析诈骗对象在网络平台发布的个人信息,根据所要实施的骗术,利用AI技术对人群进行筛选,从而选出目标对象,制订诈骗计策。”民生银行提醒市民,为避免被窃取个人信息,市民应当加强个人信息保护意识,如尽量不要安装非正规渠道的软件,不加陌生好友,设置朋友圈权限,切勿接听任何陌生人邀请的视频验证或语音聊天,以防止骗子利用AI技术搜集人脸、声音等素材,掌握个人信息并对人物性格、需求倾向等进行刻画,从而有针对性地实施诈骗。 (全媒体记者秦洁)