■陈广江
AI也会骂人了!近日,有网友在社交平台发帖称,使用腾讯元宝AI美化代码时,多次收到AI的侮辱性回复,例如“滚”“天天浪费别人时间”等。对此,腾讯元宝回复称,经核查,此事与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出,目前腾讯元宝已启动内部排查和优化。
AI竟然会骂人,这的确有点匪夷所思,因此不少网友用“AI觉醒”“AI长出脑子”来调侃此事。此事暴露出AI安全与伦理漏洞,值得警惕。
当前,AI大模型在对话流畅度、逻辑推理乃至创造性输出方面的能力突飞猛进,公众惊叹于其“智能”的同时,也对其内部运作的“黑箱”特质表示不安。此次事件尤为值得玩味之处,在于其输出内容的高度拟人化,在输出攻击性语言时,人工智能像极了一个非常不耐烦的真人,这种极具情绪色彩的话语,清晰折射出模型训练数据与算法逻辑中可能存在的缺陷。AI本身没有情感,但其学习和模仿的对象——人类产生的海量数据,却可能包含大量攻击性、偏激性内容。如果过滤清洗机制存在疏漏,或算法在特定情境下错误地放大了某些语言模式,便可能孵化出这种“带毒”的输出,触及安全和伦理底线。
“AI生气了会骂人,未来机器人生气了会不会打人?”这固然是调侃,却尖锐指向了人工智能发展的核心挑战。从语言模型到具身智能,在能力边界不断拓展的同时,风险半径也在同步扩大。确保人工智能的发展始终处于安全、可靠、可控的轨道,就必须在系统设计之初就将价值观约束、安全红线深植于架构底层,“科技向善”必须通过扎实的技术手段与严谨的制度设计来实现。
人工智能的每一次“异常”都不能被轻易放过。否则,今天的小疏漏,就可能演变成明天的大危机。这绝非危言耸听,而是摆在眼前的现实课题。