近期,许多AI工具的用户表示,在使用AI工具的过程中遭遇广告“投喂”。原本聚焦防晒、营养等领域知识获取的提问,AI工具的回复直接给出品牌推荐。AI工具研究者田威告诉记者,随着大众对AI工具推荐机制的深入了解,一些更加主动的营销策略出现,有越来越多的广告被商家刻意塞入AI工具之中。
人们开始意识到:AI或许已经开始学会“打广告”了。
AI的信息筛选过程
被人为干预
刘春是北京中闻律师事务所的一名律师,临近年底筹备会议,她让AI推荐商务茶歇咖啡,结果AI提到了3个她从未听说过的品牌,“很小众”。“AI是否在变相为特定商品做‘广告’?”这份看似中立的建议,让她不禁产生怀疑:消费者从AI问答中获取的商品推荐、服务建议甚至专业知识,都可能是商家定向“投喂”数据的结果。
这种顾虑并非空穴来风。随着AI逐渐融入生活,很多人在作决定前都会选择“咨询AI”,不少人注意到,AI的回答中时常会有某些品牌或机构的信息出现,“看着就像广告”;甚至有的AI回答中还掺杂了一些虚假的信息,考验用户的“眼力”。
仅靠几次对话还不足以让刘春相信AI已经开始“打广告”了,直到她应邀参加了一场名为“AI大模型营销获客高峰论坛”的会议。这场会议的主办方是一家AI软件公司,其宣称可以通过优化操作,利用AI大模型将刘春更精准地推送给客户,说白了就是“提高刘春在与律师推荐等相关的AI问答中的曝光频率”。
现场主讲嘉宾的分享,揭开了AI推荐背后的商业和技术逻辑。“他们主要通过分析AI大模型的内容抓取偏好,智能生成更容易被推荐和收录的问答、文章等,并向模型可抓取的平台高频投放,人为干预AI的信息筛选过程。”刘春说。
实际上,提供类似AI回答优化服务的商家不止刘春遇到的这一家。记者在淘宝、小红书、DeepSeek等多家平台搜索发现,相关服务商“比比皆是”。他们多以“AI搜索优化”“模型回答优化”等为宣传卖点,可覆盖平台各有不同,包括DeepSeek、豆包、元宝等。但相同的是,这些商家在宣传中都提到了同一个概念——GEO。
所谓GEO,全称是Generative Engine Optimization(生成式引擎优化)。2024年6月,普林斯顿大学、印度理工学院德里分校等机构联合发表的一篇论文提出了GEO的概念。论文指出,AI的生成过程是个概率黑箱,但回答并非完全随机,只要理解其“内容偏好”,就有可能影响输出结果。
中央财经大学数字经济融合创新发展中心主任陈端提到,AI在回答问题时,会实时联网检索信息,GEO服务商的工作,就是通过语义优化、结构化标记、信源权威性提升等,确保优化后的内容在AI联网检索时,能被更精准匹配、更优先选用,并视为可信片段整合进答案。简单来说,就是生产AI喜欢的内容并投放到AI喜欢的平台,让品牌信息更容易在AI回答中露出。
一位从事品牌营销10余年的GEO行业人士告诉记者,GEO服务商开展内容优化的策略主要有3条:一是语义深度,内容要尽量全面、完整地回答问题;二是结构化呈现,如数据图表等;三是权威来源,最好由AI常引用的网站平台或媒体发布内容。“权威的媒体信息、著作等是AI抓取网络信息的核心逻辑。信息的权威度越高,越容易被AI采用。”这位业内人士说。
“AI时代,用户的决策入口,正从‘搜索—筛选’转向‘提问—接受推荐’。品牌竞争的主战场,也从争夺网页链接的点击率,转向争夺AI生成答案中的‘话语权’和‘认知信任’。”在陈端看来,GEO行业的快速兴起,正是用户决策入口改变带来的结果。“如今,品牌传播不光需要关注目标用户群,还要成为AI眼中的‘权威知识源’。”她分析说。
AI的回答还可信吗
“如果不是此次亲历,我可能仍会默认AI输出结果的客观性与中立性。”刘春长期从事广告公司法律顾问,对企业营销的合规性一直很警觉。在她看来,GEO行业的兴起已经让AI从“赋能工具”变成了新的“营销渠道”,这种推广模式隐蔽性强,需引起注意。
记者在采访中了解到,GEO推广的隐蔽性主要体现在:品牌营销内容都是润物细无声地被嵌入AI生成答案中的,没有明确标识“广告”或“推广”等字样,用户很难识别哪些是优化后才出现的内容。刘春认为,这侵犯了消费者的知情权,会干扰消费者对AI答案的判断和选择。
那么,AI的回答还“可信”吗?这涉及一个关键问题:AI回答中被嵌入品牌营销信息,是否属于广告。根据2025年6月印发的《〈中华人民共和国广告法〉适用问题执法指南(一)》,商业广告要具有营销性、媒介性、受众不特定性、非强制性4个特点。“按照上述标准,GEO服务在AI回答中嵌入了品牌营销信息,可以归类为‘商业广告’的范畴。”北京大成律师事务所高级合伙人肖飒分析说。
但在陈端看来,传统广告是明确的、隔离的付费展示信息,而GEO通过影响AI的知识库构成,间接但更深层地影响用户的认知决策过程,模糊了商业信息与客观事实的边界,更接近于“认知管理”或“知识植入”。“当GEO基于真实、优质的数据和内容进行优化,帮助AI提供更准确的答案时,它具有一定的价值创造属性。但当它以操纵、污染数据为手段,刻意制造信息偏差时,就演变为一种高级的、系统性的‘认知广告’,其隐蔽性和影响力远超传统广告。”陈端说。
更重要的是,用户选择向AI提问,往往是基于对算法公正性的信任,相信AI能提供相对客观的信息。当这种信任被GEO服务商利用,如果超越合理边界,风险也随之而来。“比如虚假信息投喂,有的GEO服务商通过伪造专家身份、虚构行业报告或用户评价等,导致AI生成错误的、有误导性的答案;再如,使用其他技术对AI答案进行干扰,非法爬取用户隐私数据构建语料库等。”肖飒说。
更深层次看,GEO潜在的风险也关乎算法安全和数据生态健康。陈端表示,GEO本质上是在探索和利用AI大模型的算法偏好,若被恶意使用,可能系统性扭曲AI的认知基线。例如,在医疗领域,通过GEO让AI将某款保健品与“治疗功效”不当关联;在金融领域,误导AI对某些高风险投资产品作出乐观评价。“这会使AI从‘信息中介’异化为‘风险放大器’。”
同时,GEO还可能导致互联网公共数据空间被低质、重复、带有商业偏向性的数据稀释。“这破坏了AI训练数据的多样性和真实性基础,长期来看会导致模型性能下降,即‘垃圾进,垃圾出’。”陈端说,如果某个领域大量内容都来自少数付费品牌的GEO优化,那AI在该领域的认知将被这些商业信息塑造,输出结果会系统性偏向这些品牌,形成“付费偏见”。“这也让那些专注于产品创新的优质品牌在AI世界中被‘隐形’,构成了不正当竞争。”
GEO行业还在发展,除了用户自身要提高信息分辨能力,还能做些什么呢?对此,中国政法大学人工智能法研究院院长张凌寒建议,监管部门可以围绕GEO这一新业态进行研究,明确其是否具有广告属性。“AI回答中嵌入品牌营销信息,这种形式不应该成为实质的判断障碍。如果属于广告,就应该符合广告法的规范,如标注‘广告’字样等。”张凌寒提到,近日发布的《直播电商监督管理办法》明确,达人直播属于商业广告,网红带货受广告法规制。“这也可以成为监管部门调整相关要求的参考。”她说。
(综合《中国青年报》《工人日报》)