电子报阅读机
2025-10-16
星期四
当前报纸名称:江苏商报

9

日期:02-28
字号:
版面:第A06版:DeepSeek实用指南       上一篇    下一篇

  9

  需要完全相信DeepSeek吗?

  不少人在使用DeepSeek时发现,它有时会“一本正经胡说八道”,拼凑、嫁接甚至编造事实,这种现象被称为“AI幻觉”。

  科普中国曾经解释说:就像在考试时遇到不会的题目,我们会试图用已知的知识去猜测答案一样。AI在遇到信息缺失或不确定的情况时,会基于自己的“经验”(训练数据)进行填补和推理。这不是因为它想要欺骗我们,而是因为它在试图用自己理解的模式来完成这个任务。

  那么,如何防范和避免AI误导?

  在与大模型交流时,优化提问方式至关重要。提问应尽可能明确和具体,避免模糊或开放性的问题。

  同时,提供足够多的上下文或背景信息,这有助于减少大模型胡乱猜测的可能性。例如,可以设定回答的边界,要求大模型在指定的资料范围中作答,或者对回答中的推断内容进行标注,以便用户识别。

  此外,要求大模型分批输出结果也是一个有效的方法。

  由于大模型根据概率生成内容,单次生成的内容越多,出现误导的概率越大。因此,用户可以要求大模型先列提纲后分段输出,逐段审核,这样更容易把控生成内容的质量。

  交叉验证也是避免被误导的重要手段。通过比对不同大模型的答案,用户可以获得更全面的认识,从而判断哪个答案更为准确。

  在求证网络信息时,“追问”同样是一个有效的策略。当大模型援引了“专业人士”“专业机构”“文献资料”等说法时,用户可以要求大模型提供对应的证明材料,如链接、原文、视频等。通过查看这些材料,用户可以判断大模型的回答是否“有理有据”,从而避免被误导。