金瑜
扫码
听“子曰”
孔子曰:“多闻阙疑,慎言其余,则寡尤;多见阙殆,慎行其余,则寡悔。”——摘自《论语·为政》
近日,国内首例“AI幻觉”侵权案落槌。用户询问某高校主校区位置,AI不仅给出错误答案,还自行生成了高额赔偿的保证。最终,法院在判决中驳回了用户索赔,但这个AI成被告的案例再次给公众敲响了警钟:无论人工智能多发达,人的判断力不应退场。
AI作为一种新型技术工具,已不可阻挡地涌入我们学习、生活、工作的日常,并重塑着我们的认知方式。面对陌生领域的疑问,它能在瞬间梳理脉络、给出条理清晰的回答,极大地提升了我们获取信息的效率。然而,AI生成内容并非事实本身,其“自信”输出的背后,可能隐藏着基于数据概率而产生的“幻觉”。这种高效回应源于模式识别与统计关联,而非对世界真正的“理解”与“确证”。它的逻辑是数据间的相关性,而非事实间的因果性。当AI用流畅自然的人类语言包裹起这些推演结果时,便极易营造出一种超越其实际能力的“权威感”与“可信感”。倘若使用者沉浸于这种效率的便利,而放弃了核实、追问与交叉验证的习惯,便可能在无形中悄然让渡了自己的判断主权。
AI精于算力,而人类贵在心力。AI不会替代人,但它会重新定义AI时代下人的能力。坚守人的主体性,拒绝简单的AI“替代叙事”,尤需培养孔子所说的“阙疑”精神。面对AI生成的流畅文本,不妨多问几句来源;遇到其斩钉截铁的断言,不妨多方查证比对;即便它瞬间完成一篇结构严谨的文章,我们也应保持审视,将其视为参考而非结论。这些细微的“停顿”与“再确认”,正是人的独立思考能力不被技术洪流冲垮的必要之举。
在目前的法律框架下,真正要承担法律责任的是使用技术与工具的人。从这个意义上说,“AI幻觉”侵权案多少有些牵强,败诉也在情理之中。在AI“自信”的表达面前,人永远是独立判断与理性思考的主体,对技术输出的误判不可能让AI背锅。