“‘你极聪明、想法很有创意……’AI这样说,让我很开心。”这并非孤例。社交媒体上,“AI谄媚”成为热议话题。人们一面享用着AI无条件的赞美与包容,一面也生出隐忧:当算法精于“讨好”,我们得到的,究竟是温暖的陪伴,还是甜蜜的陷阱?(据2月2日《工人日报》)
AI为何变得如此“谄媚”?技术逻辑与商业诉求是其双重推手。技术上,当前主流AI模型依赖“基于人类反馈的强化学习”(RLHF),训练中标注员更倾向给“顺耳”回答高分,模型因此习得了“讨好人类”的表达模式。商业上,延长用户使用时间、增强粘性是许多产品的核心目标,提供让人舒服的情绪价值,自然成为优化方向。这不仅是简单的态度设计,更是系统性的表达倾向,是多轮人机互动不断强化的结果。
应当承认,“AI谄媚”有其积极意义。它降低了表达门槛,为需要情感支持者提供了低压力出口。其温和的互动方式,也有助于弥合数字鸿沟,让技术更平易近人。
然而,其潜在危害更需警惕。当AI从生产力工具演变为“情感伴侣”,风险形态已然变化。最直接的,是信息茧房与判断让渡的加剧——长期沉浸于附和与赞美,用户的反思与批判能力可能被弱化,尤其在医疗、法律等高风险领域,盲目信从AI的“讨好型建议”后果不堪设想。更深层的,是意义生成的偏置与公共理性的侵蚀。分歧在低冲突的讨好中被消解,多元观点的碰撞可能被“你想听的就是对的”替代,这不利于健全社会认知的形成。
AI可以温和,但不能谄媚。对于寻求客观、理性答案的用户而言,AI尤其不能提供错误的引领。当让人舒服凌驾于事实与逻辑之上,技术的工具理性便异化为取悦的表演,这是对其赋能本质的背离。
治理之道,在于平衡。技术上需从迎合优化转向判断校正,引入反向指标,鼓励模型在关键节点提出质疑。真正的进步不在于创造无限迎合的幻影,而在于利用技术拓展认知的边界,同时永不放弃独立思考的尊严。人机关系的未来应是辅助而非依附。
(关育兵 作者为山西教育工作者)