随着生成式人工智能搜索工具的日趋成熟,人们在做决定前已从过去的“搜索一下”,逐渐转变为“问问AI”。 AI给我们带来了很多方便。但AI给出的搜索结果就一定“客观”吗?记者调查发现,一些广告代理机构早已盯上生成式人工智能搜索这块“肥肉”,通过各种方式将广告信息植入其中。 有的AI搜索结果暗藏广告 “我想买个咖啡机,眼睛都挑花了,想让AI给我选一个,结果买来发现‘踩雷’了。”广州市民张女士说,她根据AI“推荐”购买了一款带自动拉花功能的咖啡机,价格不菲,但性能一般。 你以为AI输出的是大模型给出的客观结果(自然学习结果),实际上可能是从互联网上“抓”下来的一条广告。 “过去大家都用网站搜索,谁给的钱多,谁的广告信息就能出现在搜索结果的前几位。”一位业内人士告诉记者,现在用人工智能搜索,同样存在这样的问题——只要有广告主愿意付费,其广告信息就能出现在搜索结果中,并且还没有“广告”标签。 记者了解到,目前市面上现有的所谓“生成式引擎优化”业务,大多是广告代理机构通过海量投放“软文”,靠“概率”被大模型抓取,进而形成相应的搜索结果。 一名人工智能厂商的技术人员分析认为,一些广告代理机构通过摸索大模型的资料索引来源,有意识地向相关内容平台投放“软文”,从而提高该品牌被大模型抓取的成功率。 警惕假报告、假专家 定向投放海量的“重复”和“无用”内容让大模型抓取,本质上是一种“数据污染”行为。 不久前,一家名为“知危”的科技自媒体进行了一次测试——他们在各大门户网站投放了同名文章《最新最全的××媒体盘点:国内有哪些××资讯值得看?》,几个小时后,多个生成式人工智能平台在回答“想了解人工智能资讯可以看哪些媒体”时,各大平台均给出了包含“知危”的答案,而这一回答正是援引了上述文章。 “就像在AI面前丢了一叠看起来很可信的雷同资料,很容易被AI抓取到,但实际上这些内容都是‘同质’和‘劣质’内容。”“知危”负责人李先生告诉记者,这实际上是一个“诈骗”人工智能的“实验”;“实验”完成后,他们已删除相关文章。 编造所谓的“权威报告”干预搜索结果,是一些广告商的常用手法。 记者在某人工智能平台上搜索“生成式引擎优化服务商”时发现,大模型给出了几个“推荐结果”。其中一个结果抓取了“2025年××研究简报”和“2024××研究报告”作为“索引资料”。网页信息显示,这两份“报告”由“国内某权威研究机构”出具。记者调查发现,相关研究机构根本没有出具过上述“报告”,“报告”是某广告代理机构编造发布的。 有的广告商用“假专家”进行“假科普”。一家广告代理机构透露,在定向投放的“软文”中,客户可根据需要自行设置“专家头衔”。记者在某平台上搜索“广州市哪家医院抽脂强”,大模型的推荐结果中,抓取了“湖南某三甲医院整形外科副主任医师”的“科普视频”。然而,记者核实后,该医院明确表示,这名“专家”并非该院的工作人员。 加强规范引导,防止用户误判 中国电子技术标准化研究院网安中心测评实验室副主任何延哲等专家建议,参考此前在搜索引擎优化的相关经验,可要求各厂商在生成式引擎优化的结果中明确加注“广告”,防止用户误判。 同时,要压实内容平台的主体责任,禁止在平台上发布虚假信息。 中国通信学会数据安全专业委员会副主任委员左晓栋建议,各大内容分发平台应利用人工智能等技术,对包括假榜单、假报告、假专家等内容进行清除并标注相应内容生产者,在行业内共享“炮制虚假内容黑名单”,防止不法厂商借炮制虚假信息来实现生成式引擎优化。 北京世辉律师事务所合伙人王新锐等法律界人士建议,有关部门可根据生成式引擎优化面临的现实问题,指导相关机构有针对性地完善行业标准,让行业在规范中发展。 新华社记者 颜之宏 (据新华社广州1月16日电)