电子报阅读机
2026-01-24
星期六
当前报纸名称:山西日报

AI声音造假,你能听得出吗

日期:12-10
字号:
版面:第12版:网眼       上一篇    下一篇

  近日,在太原市永乐苑社区的活动室里,人工智能训练师刘凯民进行了一次AI拟声的演示。他请网格员宋静云随意说几句话,录制了一段简短语音,随后输入一行文字:“我打球把人撞伤了,急需 3000元。”几秒钟后,扬声器里传出与宋静云几乎一模一样的声音和语气。现场顿时一片哗然,70岁的王大爷难以置信地摇头:“声音也能造假?这让我以后怎么相信电话那头的人?”
  这是发生在太原的社区科普场景,折射出AI声音克隆技术滥用带来的新问题。
  “只需一段1分钟的清晰语音样本,就能生成高度逼真的克隆声音。”网络安全专家潘季明解释道。AI声音克隆依托开源语音大模型,通过深度学习提取声音特征,再通过算法模拟生成任意文本内容的语音输出。整个过程仅需3分钟。
  技术的低门槛催生了灰色产业链。记者调查发现,在各大社交和电商平台上,AI声音克隆服务随处可见。大家上网搜索“AI声音克隆”可以找到大量教学视频,部分视频详细演示如何使用开源工具,甚至提供破解版软件下载链接。
  电商平台的交易更为直接。在一些知名电商平台内的多家店铺公开售卖“AI声音克隆”服务,标价从几十元到数百元不等。某店铺客服告诉记者,只需提供1分钟清晰录音即可生成定制声线,承诺“相似度95%以上,支持商业使用”。
  记者以普通用户身份进行了实测。在提供一段日常对话录音后,仅3小时就收到了生成的语音文件。这段指定商品宣传语的语音,其声线、语气与原录音高度一致,连说话时的细微停顿都被精准复刻。
  这种高度逼真的克隆技术,已被不法分子盯上并用于电信诈骗等违法犯罪活动。今年10月,住在太原市漫香堤小区的48岁的王先生接到一个陌生来电,对方声音酷似他数月未见的老朋友。寒暄几句后,“老友”表示遇到急事,需借用2万元。刘先生当即答应,但在后续操作中,对方一步步诱导他开通屏幕共享,这让他心生警觉。“声音确实像,但一直让我共享屏幕就有点奇怪了。”刘先生及时断网,避免了损失。辖区民警随后证实,这是利用AI语音合成的骗局。
  面对这些乱象,我国民法典首次以立法形式将保护“声音”写入其中,明确对自然人声音的保护参照适用肖像权保护的有关规定。在2024年公布的全国首例AI生成声音人格权侵权案中,法院判决侵权公司赔偿配音师25万元。
  今年以来,多项新规相继实施。国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》已正式施行,明确要求AI服务提供者对生成内容添加标识。中央网信办也在全国启动“清朗·整治AI技术滥用”专项行动,强化AI技术源头治理。
  国浩律师(太原)事务所马晋想律师建议,个人应提高对肖像权和隐私权的保护意识,谨慎发布包含个人清晰肖像、独特声线的影像资料,避免给不法分子可乘之机。
  中国政法大学刑事司法学院教授谢澍指出,AI换脸与声音克隆技术形成的灰色产业链,是网络“黑灰产”的典型形态。此类犯罪涉及全链条,需要系统审查,综合判断。他强调,当前的核心挑战在于侦查中的证据固定以及对各环节“主观明知”的准确认定,必须坚持全链条打击思路,同时压实平台主体责任。
  随着AI技术深度融入生活,我们亟须在享受技术便利与保护个人权益之间找到平衡。唯有明确使用AI技术的底线与红线,才能真正让科技造福人类。

本报记者刘慧芳