5月22日,话题#AI诈骗正在爆发#冲上微博热搜。据“平安包头”微信公众号消息,近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。在这起骗局中,骗子防不胜防的程度,超出正常认知的仿真度,令人不寒而栗。据警方介绍,AI诈骗还有不少花样,通过声音合成、AI换脸、转发语音等手段,成功率竟接近100%。
多地出现AI诈骗案例
除了包头这起案件,据媒体此前报道,2022年2月,有位陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。
浙江温州公安曾发布消息,2021受害人小陈称他在与女网友视频聊天后被对方敲诈勒索。经警方调查,对方利用AI换脸技术,将小陈视频中的面部合成到不雅视频中,借此对其实施勒索。
2020年,上海某公司高管因对方使用AI换脸与人工生成的语音技术制作公司领导的面孔,并要该高管转账,致使该高管被诈骗150万元。
遏制人工智能违法应用还须多方发力多管齐下
要遏制“AI换脸”等人工智能领域的深度合成技术应用乱象,还得多方主体共同发力多管齐下。4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,对生成式人工智能产业给出较为详尽的规定,对用户安全保护已经迈出第一步。此外,监管部门要看到这一问题的严峻性,担负起监管责任,挖出相关产业链,给犯罪分子以震慑。平台和个人也应避免信息泄露,不给骗子留下把柄。
技术是一把双刃剑,拥抱新技术带来的发展与变革,也必须规避可能存在的风险和危险。既然有人在用它图谋不轨,就必须为这把剑装上剑鞘,这是为了保护剑,也是为了保护人。
AI诈骗来袭,成功率接近100%
据湖北网警巡查执法5月6日消息,AI技术改变诈骗方式,新骗局来袭后,诈骗成功率竟接近100%。那么AI技术如何介入新骗局?有什么新的诈骗方式?以下内容请注意:
声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。
AI换脸
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。
转发微信语音
骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本 (插件),实现语音转发。
AI程序筛选受害人
骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。例如:实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。
重点来了如何防范?
多重验证,确认身份
如果有人要求你分享个人身份信息,要小心;对突如其来的电话保持警惕,即使是来自你认识的人,因为来电显示的号码可能是伪造的;网络转账前要通过电话等多种沟通渠道核验对方身份;如果有人自称“熟人”、“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡等信息。
保护信息,避免诱惑
不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号。
提高安全防范意识
公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,你也可以主动打110咨询;如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。
■相关阅读
直播间里好多“明星脸”?小心是AI换脸
人工智能(AI)手段为视频中的人物“换脸”,这项技术已经发展到可以实时动态修改直播画面。最近,网上出现了一些“换脸直播”的教程,声称通过相关软件换上一张明星艺人的脸,可以更好地直播带货。法律专家提醒,这种做法可能涉嫌侵犯艺人的肖像权和名誉权,用于商业行为还可能涉嫌虚假宣传。
“AI换脸明星直播带货”教程热传
记者在网上浏览相关AI换脸直播教程发现,这些教程通过视频、文章等形式传播,并提供换脸直播工具的下载渠道。有的需要付费,有的通过点赞、关注、评论就能获取。教程发布者声称实时变脸软件可以帮助用户轻松变脸,打造特效直播间,极大地助力引流卖货。同时他们表示有很多模型可供选择,这些模型用中外明星艺人、影视角色或政商名人的名字命名。
在一个展示换脸直播效果的视频中,使用者把名为“成龙”的模型载入相关软件后,摄像头前的人在直播画面中就有了与成龙相似的五官,但脸型和发型还保持原样。记者发现,使用者歪头或变换表情时,换上的五官动效自然顺滑,只有手掌从脸前划过时,出现了比较明显的破绽。
北京岳成律师事务所高级合伙人岳屾山律师表示,换脸直播用于公开传播可能涉嫌侵犯相关明星艺人的肖像权。如果涉及直播带货等商业行为,会成为加重情节。
岳屾山:只要是没有经过肖像权人的同意,在直播当中通过技术手段把自己的脸换成了明星的脸,这个就是对明星肖像的一种侵权。根据不同情况承担的后果可能不同。即便只是娱乐,不涉及盈利行为,也属于侵权。如果把明星肖像用于带货直播,属于是一种商业行为,在赔偿数额上一定会给予考虑。如果主观恶性、过错程度比较大,且因此获利了,赔偿数额可能会更高。
在知名艺人工作室从事宣传工作的袁女士表示,担心相关技术被用于推销假冒伪劣产品,损害消费者权益,也影响艺人的形象。
袁女士:如果不仔细辨认的话,就会认为是明星艺人本人,这一点我觉得还挺可怕的。万一买的东西拿回去后货不对板,或者有一些更严重的问题,消费者就会觉得“这个东西我是看着谁谁谁的脸去买的”或者说“我是进了谁的直播间去买的”。
如何对AI换脸技术加强监管?
记者注意到,一些使用换脸技术的直播并不会直接提到相关明星艺人的名字,但也不会主动声明或者否认。岳律师认为,这个行为涉嫌欺诈或是虚假宣传,让公众误以为就是明星在带货。如果货品本身质量不好,或者主播在带货过程中说的话或一些行为导致公众对被换脸的明星产生负面评价,明星可以主张名誉权的侵权责任。
岳屾山:这种肖像侵权属于肖像权人向司法机关去主张民事责任。但是如果涉嫌虚假宣传,涉及不正当竞争行为,市场监督管理部门是要给予行政处罚的。
从事艺人宣传工作的袁女士认为,针对相关行为搜集证据和维权的成本比较高。而且只要冒用了明星艺人的面部特征,不管是否提及姓名,都会造成侵权影响。对于部分用户来说,一行小字标识不一定能起到提醒作用。
袁女士:其实维权成本特别大,并且效果可能没那么好。如果我负责的明星艺人摊上了这个事儿,我们也不可能每天都去发律师函,有的时候要找到侵权人都很费劲。
近期,已经有平台和企业发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等,一经发现,平台将严格处罚;同时还提出“发布者应对人工智能生成内容进行显著标识,帮助其他用户区分虚拟与现实”“发布者需对人工智能生成内容产生的相应后果负责”等要求。
岳律师建议,平台可以更加主动地识别相关内容,做标签化的处理,从而限制侵权行为。
岳屾山:平台应该监测出这种使用技术手段改变面部特征,或者换脸明星的行为。因为涉嫌侵权,平台可以给出一些限制,平台也有义务来制止此类行为。
图文综合北京晚报、广州日报、央广之声